4、MapReduce编程实践

目录

1、创建文件


2、启动HDFS

3、启动eclipse 创建项目并导入jar包

file->new->java project

导入jar包




finish

4、编写Java应用程序

在WordCount项目下 new class

java 复制代码
import java.io.IOException;
import java.util.StringTokenizer;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.util.GenericOptionsParser;

public class WordCount {
    public static class MyMapper extends Mapper<Object, Text, Text, IntWritable> {
        private final static IntWritable one = new IntWritable(1);
        private Text word = new Text();

        public void map(Object key, Text value, Context context) throws IOException, InterruptedException {
            StringTokenizer itr = new StringTokenizer(value.toString());
            while (itr.hasMoreTokens()) {
                word.set(itr.nextToken());
                context.write(word, one);
            }
        }
    }

    public static class MyReducer extends Reducer<Text, IntWritable, Text, IntWritable> {
        private IntWritable result = new IntWritable();

        public void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException {
            int sum = 0;
            for (IntWritable val : values) {
                sum += val.get();
            }
            result.set(sum);
            context.write(key, result);
        }
    }

    public static void main(String[] args) throws Exception {
        Configuration conf = new Configuration(); // 程序运行时参数
        String[] otherArgs = new GenericOptionsParser(conf, args).getRemainingArgs(); // 解析相关参数

        if (otherArgs.length != 2) {
            System.err.println("Usage: wordcount <in> <out>");
            System.exit(2);
        }

        Job job = new Job(conf, "word count"); // 设置环境参数
        job.setJarByClass(WordCount.class); // 设置整个程序的类名
        job.setMapperClass(MyMapper.class); // 添加 MyMapper 类
        job.setReducerClass(MyReducer.class); // 添加 MyReducer 类
        job.setOutputKeyClass(Text.class); // 设置输出键类型
        job.setOutputValueClass(IntWritable.class); // 设置输出值类型
        FileInputFormat.addInputPath(job, new Path(otherArgs[0])); // 设置输入文件路径
        FileOutputFormat.setOutputPath(job, new Path(otherArgs[1])); // 设置输出文件路径
        System.exit(job.waitForCompletion(true) ? 0 : 1);
    }
}

5、编译打包应用程序

(1)查看直接运行结果

(2)打包程序

next

(3)查看 JAR 包是否成功导出

6、运行程序

(1)准备文件夹



(2)上传文件

(3)运行程序

查看运行结果

7、关闭HDFS

相关推荐
火星资讯3 小时前
Zenlayer AI Gateway 登陆 Dify 市场,轻装上阵搭建 AI Agent
大数据·人工智能
星海拾遗4 小时前
git rebase记录
大数据·git·elasticsearch
Elastic 中国社区官方博客4 小时前
Elasticsearch:在分析过程中对数字进行标准化
大数据·数据库·elasticsearch·搜索引擎·全文检索
香精煎鱼香翅捞饭6 小时前
记一次多线程调用TDEngine restful获取数据的时间异常
大数据·时序数据库·tdengine
AI_56787 小时前
Webpack5优化的“双引擎”
大数据·人工智能·性能优化
慎独4137 小时前
家家有平台:Web3.0绿色积分引领消费新纪元
大数据·人工智能·物联网
百***24378 小时前
GPT-5.2 技术升级与极速接入指南:从版本迭代到落地实践
大数据·人工智能·gpt
loosed8 小时前
Ubuntu mysql8 tar.xz 安装
linux·ubuntu·adb
专业开发者9 小时前
奇迹由此而生:回望 Wi-Fi® 带来的诸多意外影响
大数据
尔嵘9 小时前
git操作
大数据·git·elasticsearch