当前位置: 首页 > news >正文

大数据技术与原理实验报告(MapReduce 初级编程实践)

MapReduce 初级编程实践

验环境:

  1. 操作系统:Linux(建议Ubuntu16.04);

        Hadoop版本:3.2.2;

(一)编程实现文件合并和去重操作

对于两个输入文件,即文件 A 和文件 B,请编写 MapReduce 程序,对两个文件进行合并,

并剔除其中重复的内容,得到一个新的输出文件 C。下面是输入文件和输出文件的一个样例 供参考。

输入文件 A 的样例如下:

20170101    x

20170102    y

20170103    x

20170104    y

20170105    z

20170106    x

输入文件 B 的样例如下:

20170101    y

20170102    y

20170103    x

20170104    z

20170105    y

根据输入文件 A 和 B 合并得到的输出文件 C 的样例如下:

20170101    x

20170101    y

20170102    y

20170103    x

20170104    y

20170104    z

20170105    y

20170105    z

20170106    x

实现上述操作的 Java 代码如下:

1.import java.io.IOException;  
2.  
3.import org.apache.hadoop.conf.Configuration;  
4.import org.apache.hadoop.fs.Path;  
5.import org.apache.hadoop.io.IntWritable;  
6.import org.apache.hadoop.io.Text;  
7.import org.apache.hadoop.mapreduce.Job;  
8.import org.apache.hadoop.mapreduce.Mapper;  
9.import org.apache.hadoop.mapreduce.Reducer;  
10.import org.apache.hadoop.util.GenericOptionsParser;  
11.import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;  
12.import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;   
13.  
14.public class Merge {  
15.  
16.    /** 
17.     * @param args 
18.     * 对A,B两个文件进行合并,并剔除其中重复的内容,得到一个新的输出文件C 
19.     */  
20.    //在这重载map函数,直接将输入中的value复制到输出数据的key上 注意在map方法中要抛出异常:throws IOException,InterruptedException  
21.    public static class Map extends Mapper<Object, Text, Text, Text> {    
22.        private static Text text = new Text();  
23.        public void map(Object key, Text value, Context content) throws IOException, InterruptedException {    
24.  
25.            text = value;    
26.            content.write(text, new Text(""));    
27.        }    
28.    }    
29.    //在这重载reduce函数,直接将输入中的key复制到输出数据的key上  注意在reduce方法上要抛出异常:throws IOException,InterruptedException  
30.        public static class Reduce extends Reducer<Text, Text, Text, Text> {    
31.        public void reduce(Text key, Iterable<Text> values, Context context) throws IOException, InterruptedException {    
32.            context.write(key, new Text(""));    
33.        }    
34.    }  
35.  
36.        public static void main(String[] args) throws Exception{  
37.  
38.        // TODO Auto-generated method stub  
39.        Configuration conf = new Configuration();  
40.        conf.set("fs.defaultFS","hdfs://localhost:9000");  
41.        String[] otherArgs = new String[]{"input","output"}; /* 直接设置输入参数 */  
42.       if (otherArgs.length != 2) {  
43.            System.err.println("Usage: wordcount <in> <out>");  
44.            System.exit(2);   
45.            }  
46.        Job job = Job.getInstance(conf,"Merge and duplicate removal");  
47.        job.setJarByClass(Merge.class);  
48.        job.setMapperClass(Map.class);  
49.        job.setCombinerClass(Reduce.class);  
50.        job.setReducerClass(Reduce.class);   
51.        job.setOutputKeyClass(Text.class);  
52.        job.setOutputValueClass(Text.class);  
53.        FileInputFormat.addInputPath(job, new Path(otherArgs[0]));  
54.        FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));  
55.        System.exit(job.waitForCompletion(true) ? 0 : 1);  
56.    }  
}

运行结果:

 图1:文件合并去重java运行结果


 图2:文件合并输出结果

  • 二 编程实现对输入文件的排序

现在有多个输入文件,每个文件中的每行内容均为一个整数。要求读取所有文件中的整

数,进行升序排序后,输出到一个新的文件中,输出的数据格式为每行两个整数,第一个数

字为第二个整数的排序位次,第二个整数为原待排列的整数。下面是输入文件和输出文件的

一个样例供参考。

输入文件 1 的样例如下:

33

37

12

40

输入文件 2 的样例如下:

4

16

39

5

输入文件 3 的样例如下:

1

45

25

根据输入文件 1、2 和 3 得到的输出文件如下:

1 1

2 4

3 5

4 12

5 16

6 25

7 33

54

8 37

9 39

10 40

11 45

JAVA代码如下:

1.import java.io.IOException;  
2.import org.apache.hadoop.conf.Configuration;  
3.import org.apache.hadoop.fs.Path;  
4.import org.apache.hadoop.io.IntWritable;  
5.import org.apache.hadoop.io.Text;  
6.import org.apache.hadoop.mapreduce.Job;  
7.import org.apache.hadoop.mapreduce.Mapper;  
8.import org.apache.hadoop.mapreduce.Partitioner;  
9.import org.apache.hadoop.mapreduce.Reducer;  
10.import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;  
11.import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;  
12.import org.apache.hadoop.util.GenericOptionsParser;  
13.  
14.  
15.public class MergeSort {  
16.    /** 
17.     * @param args 
18.     * 输入多个文件,每个文件中的每行内容均为一个整数 
19.     * 输出到一个新的文件中,输出的数据格式为每行两个整数,第一个数字为第二个整数的排序位次,第二个整数为原待排列的整数 
20.     */  
21.    //map函数读取输入中的value,将其转化成IntWritable类型,最后作为输出key  
22.    public static class Map extends Mapper<Object, Text, IntWritable, IntWritable>{  
23.          
24.        private static IntWritable data = new IntWritable();  
25.        public void map(Object key, Text value, Context context) throws IOException,InterruptedException{  
26.            String text = value.toString();  
27.            data.set(Integer.parseInt(text));  
28.            context.write(data, new IntWritable(1));  
29.        }  
30.    }  
31.      
32.    //reduce函数将map输入的key复制到输出的value上,然后根据输入的value-list中元素的个数决定key的输出次数,定义一个全局变量line_num来代表key的位次  
33.    public static class Reduce extends Reducer<IntWritable, IntWritable, IntWritable, IntWritable>{  
34.        private static IntWritable line_num = new IntWritable(1);  
35.        public void reduce(IntWritable key, Iterable<IntWritable> values, Context context) throws IOException,InterruptedException{  
36.            for(IntWritable val : values){  
37.                context.write(line_num, key);  
38.                line_num = new IntWritable(line_num.get() + 1);  
39.            }  
40.        }  
41.    }  
42.      
43.    //自定义Partition函数,此函数根据输入数据的最大值和MapReduce框架中Partition的数量获取将输入数据按照大小分块的边界,然后根据输入数值和边界的关系返回对应的Partiton ID  
44.    public static class Partition extends Partitioner<IntWritable, IntWritable>{  
45.        public int getPartition(IntWritable key, IntWritable value, int num_Partition){  
46.            int Maxnumber = 65223;//int型的最大数值  
47.            int bound = Maxnumber/num_Partition+1;  
48.            int keynumber = key.get();  
49.            for (int i = 0; i<num_Partition; i++){  
50.                if(keynumber<bound * (i+1) && keynumber>=bound * i){  
51.                    return i;  
52.                }  
53.            }  
54.            return -1;  
55.        }  
56.    }  
57.      
58.    public static void main(String[] args) throws Exception{  
59.        // TODO Auto-generated method stub  
60.        Configuration conf = new Configuration();  
61.        conf.set("fs.default.name","hdfs://localhost:9000");  
62.        String[] otherArgs = new String[]{"input","output"}; /* 直接设置输入参数 */  
63.        if (otherArgs.length != 2) {  
64.            System.err.println("Usage: wordcount <in><out>");  
65.            System.exit(2);  
66.            }  
67.        Job job = Job.getInstance(conf,"Merge and sort");  
68.        job.setJarByClass(MergeSort.class);  
69.        job.setMapperClass(Map.class);  
70.        job.setReducerClass(Reduce.class);  
71.        job.setPartitionerClass(Partition.class);  
72.        job.setOutputKeyClass(IntWritable.class);  
73.        job.setOutputValueClass(IntWritable.class);  
74.        FileInputFormat.addInputPath(job, new Path(otherArgs[0]));  
75.        FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));  
76.        System.exit(job.waitForCompletion(true) ? 0 : 1);  
77.    }  
78.}  

运行结果 :

 图3:文件内容排序运行结果

  • (三 )对给定的表格进行信息挖掘

下面给出一个 child-parent 的表格,要求挖掘其中的父子辈关系,给出祖孙辈关系的

表格。

输入文件内容如下:

child    parent

Steven   Lucy

Steven   Jack

Jone     Lucy

Jone     Jack

Lucy    Mary

Lucy    Frank

Jack     Alice

Jack     Jesse

David    Alice

David   Jesse

Philip   David

Philip   Alma

Mark   David

Mark   Alma

输出文件内容如下:

grandchild   grandparent

Steven      Alice

Steven      Jesse

Jone        Alice

Jone        Jesse

Steven      Mary

Steven      Frank

Jone        Mary

Jone        Frank

Philip       Alice

Philip       Jesse

Mark        Alice 

Mark       Jesse

JAVA代码如下:

1.import java.io.IOException;  
2.import java.util.*;  
3.  
4.import org.apache.hadoop.conf.Configuration;  
5.import org.apache.hadoop.fs.Path;  
6.import org.apache.hadoop.io.IntWritable;  
7.import org.apache.hadoop.io.Text;  
8.import org.apache.hadoop.mapreduce.Job;  
9.import org.apache.hadoop.mapreduce.Mapper;  
10.import org.apache.hadoop.mapreduce.Reducer;  
11.import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;  
12.import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;  
13.import org.apache.hadoop.util.GenericOptionsParser;  
14.  
15.public class simple_data_mining {  
16.    public static int time = 0;  
17.  
18.    /** 
19.     * @param args 
20.     * 输入一个child-parent的表格 
21.     * 输出一个体现grandchild-grandparent关系的表格 
22.     */  
23.    //Map将输入文件按照空格分割成child和parent,然后正序输出一次作为右表,反序输出一次作为左表,需要注意的是在输出的value中必须加上左右表区别标志  
24.    public static class Map extends Mapper<Object, Text, Text, Text>{  
25.        public void map(Object key, Text value, Context context) throws IOException,InterruptedException{  
26.            String child_name = new String();  
27.            String parent_name = new String();  
28.            String relation_type = new String();  
29.            String line = value.toString();  
30.            int i = 0;  
31.            while(line.charAt(i) != ' '){  
32.                i++;  
33.            }  
34.            String[] values = {line.substring(0,i),line.substring(i+1)};  
35.            if(values[0].compareTo("child") != 0){  
36.                child_name = values[0];  
37.                parent_name = values[1];  
38.                relation_type = "1";//左右表区分标志  
39.                context.write(new Text(values[1]), new Text(relation_type+"+"+child_name+"+"+parent_name));  
40.                //左表  
41.                relation_type = "2";  
42.                context.write(new Text(values[0]), new Text(relation_type+"+"+child_name+"+"+parent_name));  
43.                //右表  
44.            }  
45.        }  
46.    }  
47.      
48.    public static class Reduce extends Reducer<Text, Text, Text, Text>{  
49.        public void reduce(Text key, Iterable<Text> values,Context context) throws IOException,InterruptedException{  
50.            if(time == 0){   //输出表头  
51.                context.write(new Text("grand_child"), new Text("grand_parent"));  
52.                time++;  
53.            }  
54.            int grand_child_num = 0;  
55.            String grand_child[] = new String[10];  
56.            int grand_parent_num = 0;  
57.            String grand_parent[]= new String[10];  
58.            Iterator ite = values.iterator();  
59.            while(ite.hasNext()){  
60.                String record = ite.next().toString();  
61.                int len = record.length();  
62.                int i = 2;  
63.                if(len == 0) continue;  
64.                char relation_type = record.charAt(0);  
65.                String child_name = new String();  
66.                String parent_name = new String();  
67.                //获取value-list中value的child  
68.                  
69.                while(record.charAt(i) != '+'){  
70.                    child_name = child_name + record.charAt(i);  
71.                    i++;  
72.                }  
73.                i=i+1;  
74.                //获取value-list中value的parent  
75.                while(i<len){  
76.                    parent_name = parent_name+record.charAt(i);  
77.                    i++;  
78.                }  
79.                //左表,取出child放入grand_child  
80.                if(relation_type == '1'){  
81.                    grand_child[grand_child_num] = child_name;  
82.                    grand_child_num++;  
83.                }  
84.                else{//右表,取出parent放入grand_parent  
85.                    grand_parent[grand_parent_num] = parent_name;  
86.                    grand_parent_num++;  
87.                }  
88.            }  
89.  
90.            if(grand_parent_num != 0 && grand_child_num != 0 ){  
91.                for(int m = 0;m<grand_child_num;m++){  
92.                    for(int n=0;n<grand_parent_num;n++){  
93.                        context.write(new Text(grand_child[m]), new Text(grand_parent[n]));  
94.                        //输出结果  
95.                    }  
96.                }  
97.            }  
98.        }  
99.    }  
100.    public static void main(String[] args) throws Exception{  
101.        // TODO Auto-generated method stub  
102.        Configuration conf = new Configuration();  
103.        conf.set("fs.default.name","hdfs://localhost:9000");  
104.        String[] otherArgs = new String[]{"input","output"}; /* 直接设置输入参数 */  
105.        if (otherArgs.length != 2) {  
106.            System.err.println("Usage: wordcount <in><out>");  
107.            System.exit(2);  
108.            }  
109.        Job job = Job.getInstance(conf,"Single table join");  
110.        job.setJarByClass(simple_data_mining.class);  
111.        job.setMapperClass(Map.class);  
112.        job.setReducerClass(Reduce.class);  
113.        job.setOutputKeyClass(Text.class);  
114.        job.setOutputValueClass(Text.class);  
115.        FileInputFormat.addInputPath(job, new Path(otherArgs[0]));  
116.        FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));  
117.        System.exit(job.waitForCompletion(true) ? 0 : 1);     
118.    }  
119.}  

运行结果:

 图4:简单文件信息挖掘运行结果

 出现的问题:

1、做第一个实验的时候,输出文件的内容是一长串文本:Apache License 2.0


图5:第一个实验文件合并去重输出结果

2、做第二个实验的时候忘记删除output输出文件夹导致程序运行报错

图6:第二个实验java程序运行报错

3、做第二个实验的时候,删除了output输出文件夹依然有报错:For input string = “” 

图7:第二个实验java程序运行报错信息

解决方案(列出遇到的问题和解决办法,列出没有解决的问题):

1、

图8:第一个实验的输入文件夹input当中的内容 

上传输入文本到HDFS的时候,input文件夹还遗留了一个文本LICENSE.txt文件没有删除,导致这三个文本进行了合并操作,删除该文件后再运行java程序输出结果正确。

2、

再次运行程序,如果不删除上一次运行结束后的输出文件夹,就报错,每次手动去删除输出文件夹简直太麻烦了。在run()方法或者main()方法(视个人程序结构而定)中加入如下代码就可以让程序在运行时先自动删除与设定的输出文件夹同名的文件夹。

1.Path in = new Path(args1[0]);  
2.Path out = new Path(args1[1]);  
3.FileSystem fileSystem = FileSystem.get(new URI(in.toString()), new Configuration());  
4. if (fileSystem.exists(out)) {  
5.      fileSystem.delete(out, true);  
6.  }  

 希望大家适当的利用。

相关文章:

大数据技术与原理实验报告(MapReduce 初级编程实践)

MapReduce 初级编程实践 验环境&#xff1a; 操作系统&#xff1a;Linux&#xff08;建议Ubuntu16.04&#xff09;&#xff1b; Hadoop版本&#xff1a;3.2.2&#xff1b; &#xff08;一&#xff09;编程实现文件合并和去重操作 对于两个输入文件&#xff0c;即文件 A 和…...

Redis 5大数据类型命令解读

目录 Redis key的命令 1、redis字符串&#xff08;String&#xff09; 2、redis列表(List) 3、redis哈希表(Hash) 4、redis集合(Set) 5、redis有序集合(ZSet) Redis 命令网站&#xff1a;redis中文文档 Redis key的命令 命令说明示例keys *查看当前库所有的keykeys *…...

数据可视化新秀 DataEase 可否替代 Tableau?

每年数以千计的企业在数据可视化工具中选择 Tableau&#xff0c;但是你知道还有一款强大的工具DataEase&#xff0c;可能会成为你的更佳选择吗&#xff1f;下面是 Tableau 与 DataEase 的功能对比&#xff1a; 1 功能对比 Tableau DataEase 安装包支持平台 Windows MacOS Li…...

Java源码分析(三)ArrayList

ArrayList是我们经常用到的一个集合类。数组在创建时就要给一个明确的大小&#xff0c;而ArrayList的长度是可以动态调整的&#xff0c;因此&#xff0c;也叫动态数组。那么本篇我们一起学习下ArrayList的源码。 一、创建ArrayList 首先&#xff0c;我们从创建ArrayList开始。…...

冒泡排序

贵阳这个地方的天气变化好大呀&#xff0c;前两天晒大太阳&#xff0c;今天就冷的脚抖&#xff0c;简直不要太冷&#xff0c;但是不管怎么样&#xff0c;还是要学习的哟&#xff01; 冬天来了&#xff0c;春天确实还有一点远&#xff01; 好了&#xff0c;话不多说&#xff0c;…...

docker基于debian11基础环境安装libreoffice

首先下载指定版本的libreoffice&#xff0c;注意debian11下需要选择Linux (64-bit) (deb) 官方下载地址&#xff1a;https://www.libreoffice.org/download/download-libreoffice/?typedeb-x86_64&version7.6.2&langzh-CN 将文件上传到服务器并解压缩备用&#xff0c…...

Intel Devkit Call for Paper Challenge - Advanced Award

...

【正点原子STM32连载】 第五十章 FATFS实验 摘自【正点原子】APM32F407最小系统板使用指南

1&#xff09;实验平台&#xff1a;正点原子stm32f103战舰开发板V4 2&#xff09;平台购买地址&#xff1a;https://detail.tmall.com/item.htm?id609294757420 3&#xff09;全套实验源码手册视频下载地址&#xff1a; http://www.openedv.com/thread-340252-1-1.html## 第五…...

12. 机器学习——评价指标

机器学习面试题汇总与解析——评价指标 本章讲解知识点 什么是评价指标?机器学习本专栏适合于Python已经入门的学生或人士,有一定的编程基础。本专栏适合于算法工程师、机器学习、图像处理求职的学生或人士。本专栏针对面试题答案进行了优化,尽量做到好记、言简意赅。这才是…...

代码随想录算法训练营第23期day45|70. 爬楼梯 (进阶)、322. 零钱兑换、279.完全平方数

目录 一、&#xff08;leetcode 70&#xff09;爬楼梯 二、&#xff08;leetcode 322&#xff09;零钱兑换 三、&#xff08;leetcode 279&#xff09;完全平方数 一、&#xff08;leetcode 70&#xff09;爬楼梯 力扣题目链接​​​​​​ 状态&#xff1a;查看思路后AC 除…...

uniapp公共css

/* 弹性布局 */ .flex{display: flex; } .a-c{align-items: center; } .a-s{align-items: flex-start; } .a-e{align-items: flex-end; } .j-c{justify-content: center; } .j-sb{justify-content: space-between; } .j-s{justify-content: flex-start; } .j-e{justify-content…...

C语言—i++、++i、条件运算符、goto语句、注释

i和i #include <stdio.h> int main() {int i5,j;j i;printf("i%d,j%d\n", i, j);i 5;j i;printf("i%d,j%d\n", i, j);system("pause");return 0;}i6,j6 i6,j5 请按任意键继续. . .条件运算符 goto语句 #include <stdio.h> int …...

Java自学第8课:电商项目(3) - 重新搭建环境

由于之前用的jdk和eclipse&#xff0c;以及mysql并不是视频教程所采用的&#xff0c;在后面运行源码和使用作者提供源码时&#xff0c;总是报错&#xff0c;怀疑&#xff1a; 1 数据库有问题 2 jdk和引入的jar包不匹配 3 其他什么未知的错误&#xff1f; 所以决定卸载jdk e…...

深度学习_11_softmax_图片识别代码原理解析

完整代码&#xff1a; import torch from d2l import torch as d2l"创建训练集&创建检测集合" batch_size 256 train_iter, test_iter d2l.load_data_fashion_mnist(batch_size)"每个图片长度&#xff0c;以及图片种类" num_inputs 784 num_output…...

Java Web——前端HTML入门

目录 HTML&CSS3&JavaScript简述 1. HTML概念 2. 超文本 3. 标记语言 4. HTML基础结构 5. HTML基础词汇 6. HTML语法规则 7. VS Code 推荐使用的插件 8. 在线帮助文档 HTML&CSS3&JavaScript简述 HTML 主要用于网页主体结构的搭建&#xff0c;像一个毛坯…...

华为ensp:为vlan配置ip

配置对应vlan的ip vlan1 interface Vlanif 1 进入vlan1 ip address 192.168.1.254 24配置IP为192.168.1.254 子网掩码为24位 这样就配置上ip了 vlan2 interface Vlanif 2 ip address 192.168.2.254 24 vlan3 interface Vlanif 3 ip address 192.168.3.254 24 查看结果 …...

laravel8-rabbitmq消息队列-实时监听跨服务器消息

使用场景介绍&#xff1a; 1&#xff09;用于实时监听远程服务器发出的消息&#xff08;json格式消息&#xff09;&#xff0c;接受并更新消息状态&#xff0c;存储到本地服务器 2&#xff09;环境&#xff1a;lNMP&#xff08;laravel8&#xff09; 3&#xff09;服务器需要开…...

git清除历史提交记录保持本地文件不变

https://www.cnblogs.com/langkyeSir/p/14528857.html git删除历史版本&#xff0c;保留当前状态。 有时候&#xff0c;我们误提交了某些隐私文件&#xff0c;使用git rm xxx删除后&#xff0c;其实版本库中是有历史记录的&#xff0c;想要删除这些记录&#xff0c;但是又不想…...

SOME/IP学习笔记2

1. SOME/IP 协议 SOME/IP目前支持UDP&#xff08;用户传输协议&#xff09;和TCP&#xff08;传输控制协议&#xff09;&#xff0c; PS:UDP和TCP区别如下 TCP面向连接的&#xff0c;可靠的数据传输服务&#xff1b;UDP面向无连接的&#xff0c;尽最大努力的数据传输服务&…...

python实现FINS协议的TCP服务端(篇一)

python实现FINS协议的TCP服务端是一件稍微麻烦点的事情。它不像modbusTCP那样&#xff0c;可以使用现成的pymodbus模块去实现。但是&#xff0c;我们可以根据协议帧进行组包&#xff0c;自己去实现帧的格式&#xff0c;而这一切可以基于socket模块。本文为第一篇。 一、了解FI…...

uniapp 对接腾讯云IM群组成员管理(增删改查)

UniApp 实战&#xff1a;腾讯云IM群组成员管理&#xff08;增删改查&#xff09; 一、前言 在社交类App开发中&#xff0c;群组成员管理是核心功能之一。本文将基于UniApp框架&#xff0c;结合腾讯云IM SDK&#xff0c;详细讲解如何实现群组成员的增删改查全流程。 权限校验…...

[特殊字符] 智能合约中的数据是如何在区块链中保持一致的?

&#x1f9e0; 智能合约中的数据是如何在区块链中保持一致的&#xff1f; 为什么所有区块链节点都能得出相同结果&#xff1f;合约调用这么复杂&#xff0c;状态真能保持一致吗&#xff1f;本篇带你从底层视角理解“状态一致性”的真相。 一、智能合约的数据存储在哪里&#xf…...

盘古信息PCB行业解决方案:以全域场景重构,激活智造新未来

一、破局&#xff1a;PCB行业的时代之问 在数字经济蓬勃发展的浪潮中&#xff0c;PCB&#xff08;印制电路板&#xff09;作为 “电子产品之母”&#xff0c;其重要性愈发凸显。随着 5G、人工智能等新兴技术的加速渗透&#xff0c;PCB行业面临着前所未有的挑战与机遇。产品迭代…...

在鸿蒙HarmonyOS 5中实现抖音风格的点赞功能

下面我将详细介绍如何使用HarmonyOS SDK在HarmonyOS 5中实现类似抖音的点赞功能&#xff0c;包括动画效果、数据同步和交互优化。 1. 基础点赞功能实现 1.1 创建数据模型 // VideoModel.ets export class VideoModel {id: string "";title: string ""…...

AI Agent与Agentic AI:原理、应用、挑战与未来展望

文章目录 一、引言二、AI Agent与Agentic AI的兴起2.1 技术契机与生态成熟2.2 Agent的定义与特征2.3 Agent的发展历程 三、AI Agent的核心技术栈解密3.1 感知模块代码示例&#xff1a;使用Python和OpenCV进行图像识别 3.2 认知与决策模块代码示例&#xff1a;使用OpenAI GPT-3进…...

基础测试工具使用经验

背景 vtune&#xff0c;perf, nsight system等基础测试工具&#xff0c;都是用过的&#xff0c;但是没有记录&#xff0c;都逐渐忘了。所以写这篇博客总结记录一下&#xff0c;只要以后发现新的用法&#xff0c;就记得来编辑补充一下 perf 比较基础的用法&#xff1a; 先改这…...

Mysql中select查询语句的执行过程

目录 1、介绍 1.1、组件介绍 1.2、Sql执行顺序 2、执行流程 2.1. 连接与认证 2.2. 查询缓存 2.3. 语法解析&#xff08;Parser&#xff09; 2.4、执行sql 1. 预处理&#xff08;Preprocessor&#xff09; 2. 查询优化器&#xff08;Optimizer&#xff09; 3. 执行器…...

Redis:现代应用开发的高效内存数据存储利器

一、Redis的起源与发展 Redis最初由意大利程序员Salvatore Sanfilippo在2009年开发&#xff0c;其初衷是为了满足他自己的一个项目需求&#xff0c;即需要一个高性能的键值存储系统来解决传统数据库在高并发场景下的性能瓶颈。随着项目的开源&#xff0c;Redis凭借其简单易用、…...

Unity UGUI Button事件流程

场景结构 测试代码 public class TestBtn : MonoBehaviour {void Start(){var btn GetComponent<Button>();btn.onClick.AddListener(OnClick);}private void OnClick(){Debug.Log("666");}}当添加事件时 // 实例化一个ButtonClickedEvent的事件 [Formerl…...

【Linux】自动化构建-Make/Makefile

前言 上文我们讲到了Linux中的编译器gcc/g 【Linux】编译器gcc/g及其库的详细介绍-CSDN博客 本来我们将一个对于编译来说很重要的工具&#xff1a;make/makfile 1.背景 在一个工程中源文件不计其数&#xff0c;其按类型、功能、模块分别放在若干个目录中&#xff0c;mak…...