flink 入门学习 wordcount

概述:

Apache Flink 是一个流处理和批处理的开源框架,用于处理无界和有界数据流。如果你想要使用 Flink 来统计文本中文字的数量(例如,字符数、单词数或行数),你可以通过 Flink 的 DataSet API(对于批处理)或 DataStream API(对于流处理)来实现。

以下是一个简单的示例,说明如何使用 Flink 的 DataSet API 来统计文本文件中单词的数量:

1、设置运行环境

java 复制代码
final ExecutionEnvironment env = ExecutionEnvironment.getExecutionEnvironment();

2、读取文本信息

java 复制代码
DataSet<String> text = env.readTextFile("path/to/your/textfile.txt");

3、分割单词数量

java 复制代码
// 分割文本并生成单词  
DataSet<Tuple2<String, Integer>> wordCounts = text  
    .flatMap(new Tokenizer())  
    .groupBy(0)  
    .sum(1);  
  
// Tokenizer 是一个简单的 FlatMapFunction,用于将文本分割成单词  
public static final class Tokenizer implements FlatMapFunction<String, Tuple2<String, Integer>> {  
    @Override  
    public void flatMap(String value, Collector<Tuple2<String, Integer>> out) {  
        // normalize and split the line into words  
        String[] tokens = value.toLowerCase().split("\\W+");  
  
        // emit the pairs  
        for (String token : tokens) {  
            if (token.length() > 0) {  
                out.collect(new Tuple2<>(token, 1));  
            }  
        }  
    }  
}

注意:上述代码是统计单词数量的示例。如果你想要统计字符数或行数,你需要相应地修改 Tokenizer 类和后续的处理步骤。

4、执行并输出结果

使用 print 方法将结果输出到控制台,或使用 writeAsText 方法将结果写入文件:

java 复制代码
// 执行并输出结果  
wordCounts.print();  
  
// 或者将结果写入文件  
wordCounts.writeAsText("path/to/output/file", WriteMode.OVERWRITE);  
  
// 触发执行  
env.execute("WordCount");

这只是一个简单的示例,用于说明如何使用 Flink 的 DataSet API 来统计文本中的单词数量。根据你的具体需求(例如,统计字符数或行数),你需要相应地修改代码。

相关推荐
IvanCodes27 分钟前
五、Hadoop集群部署:从零搭建三节点Hadoop环境(保姆级教程)
大数据·hadoop·分布式
富能量爆棚1 小时前
spark-local模式
大数据
lqlj22331 小时前
配置 Spark 以 YARN 模式
大数据·spark
ll7788112 小时前
C++学习之路,从0到精通的征途:继承
开发语言·数据结构·c++·学习·算法
AidLux2 小时前
端侧智能重构智能监控新路径 | 2025 高通边缘智能创新应用大赛第三场公开课来袭!
大数据·人工智能
炒空心菜菜3 小时前
SparkSQL 连接 MySQL 并添加新数据:实战指南
大数据·开发语言·数据库·后端·mysql·spark
富能量爆棚3 小时前
Hadoop和Spark生态系统
大数据
LuckyLay3 小时前
React百日学习计划——Deepseek版
前端·学习·react.js
安和昂3 小时前
【iOS】SDWebImage源码学习
学习·ios
菜一头包4 小时前
c++ std库中的文件操作学习笔记
c++·笔记·学习