水军大提督 发表于 2024-6-19 02:24:49

VMware centos7下通过idea实现Hadoop MapReduce经典案例之一的TopN案例

一:案例需求
现假设有数据文件num.txt,现要求利用MapReduce技术提取上述文本中最大的5个数据,并最终将结果汇总到一个文件中。先设置MapReduce分区为1,即ReduceTask个数肯定只有一个。我们需要提取TopN,即全局的前N条数据,不管中间有几个Map、Reduce,最终只能有一个用来汇总数据。在Map阶段,利用TreeMap数据结构保存TopN的数据,TreeMap默认会根据其键的自然顺序举行排序,也可根据创建映射时提供的 Comparator举行排序,其firstKey()方法用于返回当前集合最小值的键。在Reduce阶段,将Map阶段输出数据举行汇总,选出其中的TopN数据,即可满足需求。这里需要注意的是,TreeMap默认接纳正序排列,需求是提取5个最大的数据,因此要重写Comparator类的排序方法举行倒序排序。


二:案例实施
​第一步:下载idea以及需要的工具,可以参考Centos7安装并利用IntelliJ IDEA这篇文章。注意下载Linux版本。

第二步:下载并安装完idea,先启动Hadoop,利用命令:start-all.sh  启动完成后利用jps检察Hadoop集群是否启动乐成。启动Hadoop乐成后启动idea。

第三步:在假造机上创建文本文件
1.expor目次下创建topn目次,输入命令:mkdir /export/topn

https://img-blog.csdnimg.cn/direct/5f11f8dc52014693af7448f69198f358.png
2.在topn目次下创建num.txt文件,输入命令:touch /export/topn/num.txt

3输入命令:vim /export/topn/num.txt

向num.txt文件添加如下内容:
10 3 8 7 6 5 1 2 9 4
11 12 17 14 15 20
19 18 13 16


4上传文件到HDFS指定目次

(1)创建/topn/input目次,输入命令:hdfs dfs -mkdir -p /topn/input

(2)将文本文件num.txt,上传到HDFS的/topn/input目次,输入命令:hdfs dfs -put /export/topn/num.txt /topn/input



(3)在hadoop webui检察文件是否上传乐成。

https://img-blog.csdnimg.cn/direct/8dc0c83b4fe843d9a6c8dfec93e80ada.png
注意:这时间你要检察是否可以下载到本机,如果不可以下载的话,参考我另一篇文章。



三:Map阶段实现

利用IntelliJ开辟工具创建Maven项目TopN,而且新建net.hw.mr包,在该路径下编写自界说Mapper类TopNMapper,主要用于将文件中的每行数据举行切割提取,并把数据保存到TreeMap中,判定TreeMap是否大于5,如果大于5就需要移除最小的数据。TreeMap保存了当前文件最大5条数据后,再输出到Reduce阶段。
(1)创建Maven项目:TopN
     1.在idea左上角新建项目。包名:net.army.mr设置好如下图,单击【Create】按钮
https://img-blog.csdnimg.cn/direct/efe1a8df284a4fcb94607f7cf0b2283d.png

2.删除【Main】主类:右击【Main】类,单击【Delete】




3.添加相关依赖,在pom.xml文件里添加hadoop和junit依赖,添加内容如下:

<dependencies>                                        

    <!--hadoop客户端-->                                  

    <dependency>                                      

        <groupId>org.apache.hadoop</groupId>          

        <artifactId>hadoop-client</artifactId>        

        <version>3.3.4</version>                      

    </dependency>                                     

    <!--单位测试框架-->                                     

    <dependency>                                      

        <groupId>junit</groupId>                      

        <artifactId>junit</artifactId>                

        <version>4.13.2</version>                     

    </dependency>                                     

</dependencies>         

https://img-blog.csdnimg.cn/direct/6111f881fab04d95924c1a1241d8112f.png
4 刷新本地的maven仓库,如果没有下载,会主动下载依赖到本地:单击【Maven】,单击【刷新】按钮

(这个过程需要idea自己下载,过程可能有点慢,耐烦等待)https://img-blog.csdnimg.cn/direct/8a49465f85a44640894e678f1db30f86.png




5创建日记属性文件

(1)在resources目次里创建log4j.properties文件,右击【resources】,选择【New】,单击【Resource Bundle】https://img-blog.csdnimg.cn/direct/342a7080acf14d27b9899fb60f2d3a05.png
(2).在弹出的对话框中输入:log4j,按【OK】按钮,乐成创建。(我这里已经创建好了,你们自己按照步骤创建即可)
https://img-blog.csdnimg.cn/direct/286fd8bcd16642178af845007afe6233.png
(3)向log4j.properties文件添加如下内容:

log4j.rootLogger=INFO, stdout, logfile

log4j.appender.stdout=org.apache.log4j.ConsoleAppender

log4j.appender.stdout.layout=org.apache.log4j.PatternLayout

log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n

log4j.appender.logfile=org.apache.log4j.FileAppender

log4j.appender.logfile.File=target/topnscore.log

log4j.appender.logfile.layout=org.apache.log4j.PatternLayout

log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%nhttps://img-blog.csdnimg.cn/direct/ad0eb1fafbd74b5da7d1cb32b5557d75.png




6创建前N成绩映射器类:TopNMapper

1.右击【net.army.mr】,选择【New】,单击【Java Class】
2编写代码:

https://img-blog.csdnimg.cn/direct/5133799cb6e74ea6afa2512c926a9a79.png
https://img-blog.csdnimg.cn/direct/430b34f2b6524c13a15ddf2aceca1c6a.png
package net.army.mr;

import org.apache.hadoop.io.IntWritable;

import org.apache.hadoop.io.LongWritable;

import org.apache.hadoop.io.NullWritable;

import org.apache.hadoop.io.Text;

import org.apache.hadoop.mapreduce.Mapper;



import java.util.TreeMap;



/**

 * 作者:申朝先生

 * 日期:2024.4.27

 * 功能:前N映射器类

 */



public class TopNMapper extends Mapper<LongWritable, Text, NullWritable, IntWritable> {



    private TreeMap<Integer, String> repToRecordMap = new TreeMap<Integer, String>();



    // <0,10 3 8 7 6 5 1 2 9 4>

    // <xx,11 12 17 14 15 20>

    

@Override
public void map(LongWritable key, Text value, Context context) {
    String line = value.toString();
    String[] nums = line.split(" ");
    for (String num : nums) {
        try {
            if (!num.isEmpty()) {
                int numValue = Integer.parseInt(num.trim());
                repToRecordMap.put(numValue, " ");
                if (repToRecordMap.size() > 5) {
                    repToRecordMap.remove(repToRecordMap.firstKey());
                }
            }
        } catch (NumberFormatException e) {
            // 可以记载错误信息大概忽略这个值
            System.err.println("无法剖析的数字: " + num);
        }
    }
}
   @Override

    protected void cleanup(Context context) {

        for (Integer i : repToRecordMap.keySet()) {

            try {

                context.write(NullWritable.get(), new IntWritable(i));

            } catch (Exception e) {

                e.printStackTrace();

            }

        }

    }

}





7.Reduce阶段实现

编写MapReduce程序运行主类TopNDriver,主要用于设置MapReduce工作任务的相关参数,对HDFS上/topn/input目次下的源文件求前N数据,并将结果输入到HDFS的/topn/output目次下。
(1)创建前N归并器类:TopNReducer

1.右击【net.army.mr】,选择【New】,单击【Java Class】
https://img-blog.csdnimg.cn/direct/be4c93f347894fd99b354a78de57598c.png
https://img-blog.csdnimg.cn/direct/c2522ca12bba461cb97ca3bf6e990c32.png
2编写代码:
package net.army.mr;

import org.apache.hadoop.io.IntWritable;

import org.apache.hadoop.io.NullWritable;

import org.apache.hadoop.mapreduce.Reducer;



import java.io.IOException;

import java.util.Comparator;

import java.util.TreeMap;



/**

 * 作者:申朝先生

 * 日期:2024.4.27

 * 功能:前N归并器类

 */



public class TopNReducer extends Reducer<NullWritable, IntWritable, NullWritable, IntWritable> {



    private TreeMap<Integer, String> repToRecordMap = new TreeMap<Integer, String>(new Comparator<Integer>() {

        /**

         * 谁大排后面

         *

         * @param a

         * @param b

         * @return 一个整数

         */

        public int compare(Integer a, Integer b) {

            return b - a;

        }

    });



    public void reduce(NullWritable key, Iterable<IntWritable> values, Context context)

            throws IOException, InterruptedException {

        for (IntWritable value : values) {

            repToRecordMap.put(value.get(), " ");

            if (repToRecordMap.size() > 5) {

                repToRecordMap.remove(repToRecordMap.firstKey());

            }

        }



        for (Integer i : repToRecordMap.keySet()) {

            context.write(NullWritable.get(), new IntWritable(i));

        }

    }

}







8.Driver程序主类实现

(1)创建前N驱动器类:TopNDriver

1.右击【net.army.mr】,选择【New】,单击【Java Class】https://img-blog.csdnimg.cn/direct/de40bf9e88114d93a948a8541e5412f4.png
https://img-blog.csdnimg.cn/direct/e2b0e8eee31b479db591c022b357a49e.png

2编写代码:

package net.army.mr;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.FSDataInputStream;

import org.apache.hadoop.fs.FileStatus;

import org.apache.hadoop.fs.FileSystem;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.io.IOUtils;

import org.apache.hadoop.io.IntWritable;

import org.apache.hadoop.io.NullWritable;

import org.apache.hadoop.mapreduce.Job;

import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;

import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;



import java.net.URI;



/**

 * 作者:申朝先生

 * 日期:2024.4.27

 * 功能:前N驱动类

 */



public class TopNDriver {

    public static void main(String[] args) throws Exception {

        // 创建设置对象

        Configuration conf = new Configuration();

        // 设置数据节点主机名属性

        conf.set("dfs.client.use.datanode.hostname", "true");



        // 获取作业实例

        Job job = Job.getInstance(conf);



        // 设置作业启动类

        job.setJarByClass(TopNDriver.class);



        // 设置Mapper类

        job.setMapperClass(TopNMapper.class);

        // 设置map任务输出键类型

        job.setMapOutputKeyClass(NullWritable.class);

        // 设置map任务输出值类型

        job.setMapOutputValueClass(IntWritable.class);





        // 设置Reducer类

        job.setReducerClass(TopNReducer.class);

        // 设置reduce任务输出键类型

        job.setOutputKeyClass(NullWritable.class);

        // 设置reduce任务输出值类型

        job.setOutputValueClass(IntWritable.class);



        // 界说uri字符串

        String uri = "hdfs://master:9000";

        // 创建输入目次

        Path inputPath = new Path(uri + "/topn/input");

        // 创建输出目次

        Path outputPath = new Path(uri + "/topn/output");



        // 获取文件体系

        FileSystem fs = FileSystem.get(new URI(uri), conf);

        // 删除输出目次

        fs.delete(outputPath, true);



        // 给作业添加输入目次

        FileInputFormat.addInputPath(job, inputPath);

        // 给作业设置输出目次

        FileOutputFormat.setOutputPath(job, outputPath);



        // 等待作业完成

        job.waitForCompletion(true);



        // 输出统计结果

        System.out.println("======统计结果======");

        FileStatus[] fileStatuses = fs.listStatus(outputPath);

        for (int i = 1; i < fileStatuses.length; i++) {

            // 输出结果文件路径

            System.out.println(fileStatuses.getPath());

            // 获取文件输入流

            FSDataInputStream in = fs.open(fileStatuses.getPath());

            // 将结果文件表现在控制台

            IOUtils.copyBytes(in, System.out, 4096, false);

        }

    }

}




9运行前N驱动器类,检察结果

(1)运行TopNDriver类,检察结果https://img-blog.csdnimg.cn/direct/f7067afe4a294009836ef815bc29b64b.png

(2)下载结果文件并检察

进入/export/topn目次,输入命令:cd /export/topn/

下载文件,输入命令:hdfs dfs -get /topn/output/part-r-00000

检察结果文件,输入命令:cat part-r-00000https://img-blog.csdnimg.cn/direct/d2572de47df44a2a8514d5f0c887ebc7.png

注意修改这两个地方的代码
https://img-blog.csdnimg.cn/direct/30c87cfbd76c4abd8c638206c227d1d6.jpeg
https://img-blog.csdnimg.cn/direct/201abeef09fe4842908a4220caeaf69a.jpeg

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
页: [1]
查看完整版本: VMware centos7下通过idea实现Hadoop MapReduce经典案例之一的TopN案例