4、MapReduce编程实践

目录

1、创建文件


2、启动HDFS

3、启动eclipse 创建项目并导入jar包

file->new->java project

导入jar包




finish

4、编写Java应用程序

在WordCount项目下 new class

java 复制代码
import java.io.IOException;
import java.util.StringTokenizer;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.util.GenericOptionsParser;

public class WordCount {
    public static class MyMapper extends Mapper<Object, Text, Text, IntWritable> {
        private final static IntWritable one = new IntWritable(1);
        private Text word = new Text();

        public void map(Object key, Text value, Context context) throws IOException, InterruptedException {
            StringTokenizer itr = new StringTokenizer(value.toString());
            while (itr.hasMoreTokens()) {
                word.set(itr.nextToken());
                context.write(word, one);
            }
        }
    }

    public static class MyReducer extends Reducer<Text, IntWritable, Text, IntWritable> {
        private IntWritable result = new IntWritable();

        public void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException {
            int sum = 0;
            for (IntWritable val : values) {
                sum += val.get();
            }
            result.set(sum);
            context.write(key, result);
        }
    }

    public static void main(String[] args) throws Exception {
        Configuration conf = new Configuration(); // 程序运行时参数
        String[] otherArgs = new GenericOptionsParser(conf, args).getRemainingArgs(); // 解析相关参数

        if (otherArgs.length != 2) {
            System.err.println("Usage: wordcount <in> <out>");
            System.exit(2);
        }

        Job job = new Job(conf, "word count"); // 设置环境参数
        job.setJarByClass(WordCount.class); // 设置整个程序的类名
        job.setMapperClass(MyMapper.class); // 添加 MyMapper 类
        job.setReducerClass(MyReducer.class); // 添加 MyReducer 类
        job.setOutputKeyClass(Text.class); // 设置输出键类型
        job.setOutputValueClass(IntWritable.class); // 设置输出值类型
        FileInputFormat.addInputPath(job, new Path(otherArgs[0])); // 设置输入文件路径
        FileOutputFormat.setOutputPath(job, new Path(otherArgs[1])); // 设置输出文件路径
        System.exit(job.waitForCompletion(true) ? 0 : 1);
    }
}

5、编译打包应用程序

(1)查看直接运行结果

(2)打包程序

next

(3)查看 JAR 包是否成功导出

6、运行程序

(1)准备文件夹



(2)上传文件

(3)运行程序

查看运行结果

7、关闭HDFS

相关推荐
流烟默16 分钟前
机器学习中一些场景的模型评估与理解图表
大数据·人工智能·机器学习
海豚调度1 小时前
GSoC 成果公布!印度开发者为 DolphinScheduler 引入通用 OIDC 认证,实现无缝安全访问
大数据·开源·安全认证·oidc·大数据调度·apachedolphinscheduler
想ai抽1 小时前
大数据计算引擎-从源码看Spark AQE对于倾斜的处理
大数据·数据仓库·spark
在未来等你1 小时前
Elasticsearch面试精讲 Day 30:Elasticsearch面试真题解析与答题技巧
大数据·分布式·elasticsearch·搜索引擎·面试
Micra5201 小时前
8款企业微信SCRM工具功能对比分析
大数据·经验分享
培培说证2 小时前
2025年大专计算机技术专业就业方向!
大数据
在未来等你2 小时前
Elasticsearch面试精讲 Day 27:备份恢复与灾难恢复
大数据·分布式·elasticsearch·搜索引擎·面试
涛思数据(TDengine)2 小时前
TDengine TSDB 3.3.8.0 上线:SMA、TLS、TDgpt、taosX、taosgen 一次全进化
大数据·数据库·时序数据库·tdengine
研究司马懿2 小时前
【GitOps】Argo CD app of apps
大数据·开发语言·elasticsearch·搜索引擎·云原生·argocd·gitops
qqxhb3 小时前
系统架构设计师备考第49天——数字孪生体&云计算&大数据技术
大数据·系统架构·云计算·saas·paas·iaas·数字孪生体