flink 入门学习 wordcount

概述:

Apache Flink 是一个流处理和批处理的开源框架,用于处理无界和有界数据流。如果你想要使用 Flink 来统计文本中文字的数量(例如,字符数、单词数或行数),你可以通过 Flink 的 DataSet API(对于批处理)或 DataStream API(对于流处理)来实现。

以下是一个简单的示例,说明如何使用 Flink 的 DataSet API 来统计文本文件中单词的数量:

1、设置运行环境

java 复制代码
final ExecutionEnvironment env = ExecutionEnvironment.getExecutionEnvironment();

2、读取文本信息

java 复制代码
DataSet<String> text = env.readTextFile("path/to/your/textfile.txt");

3、分割单词数量

java 复制代码
// 分割文本并生成单词  
DataSet<Tuple2<String, Integer>> wordCounts = text  
    .flatMap(new Tokenizer())  
    .groupBy(0)  
    .sum(1);  
  
// Tokenizer 是一个简单的 FlatMapFunction,用于将文本分割成单词  
public static final class Tokenizer implements FlatMapFunction<String, Tuple2<String, Integer>> {  
    @Override  
    public void flatMap(String value, Collector<Tuple2<String, Integer>> out) {  
        // normalize and split the line into words  
        String[] tokens = value.toLowerCase().split("\\W+");  
  
        // emit the pairs  
        for (String token : tokens) {  
            if (token.length() > 0) {  
                out.collect(new Tuple2<>(token, 1));  
            }  
        }  
    }  
}

注意:上述代码是统计单词数量的示例。如果你想要统计字符数或行数,你需要相应地修改 Tokenizer 类和后续的处理步骤。

4、执行并输出结果

使用 print 方法将结果输出到控制台,或使用 writeAsText 方法将结果写入文件:

java 复制代码
// 执行并输出结果  
wordCounts.print();  
  
// 或者将结果写入文件  
wordCounts.writeAsText("path/to/output/file", WriteMode.OVERWRITE);  
  
// 触发执行  
env.execute("WordCount");

这只是一个简单的示例,用于说明如何使用 Flink 的 DataSet API 来统计文本中的单词数量。根据你的具体需求(例如,统计字符数或行数),你需要相应地修改代码。

相关推荐
weixin_307779138 分钟前
AWS EMR上的Spark日志实时搜索关键指标网页呈现的设计和实现
大数据·python·spark·云计算·aws
Bluesonli9 分钟前
UE5 蓝图学习计划 - Day 6:角色蓝图
学习·ue5·unreal engine
Bluesonli14 分钟前
第 2 天:创建你的第一个 UE5 C++ 项目!
c++·学习·ue5·虚幻·虚幻引擎·unreal engine
前端达人33 分钟前
「AI学习笔记」深度学习进化史:从神经网络到“黑箱技术”(三)
人工智能·笔记·深度学习·神经网络·学习
蝴蝶不愿意1 小时前
《苍穹外卖》项目学习记录-Day10来单提醒
学习
pay顿1 小时前
C++基础day1
c++·学习·笔试
Qhumaing1 小时前
Python学习——函数参数详解
开发语言·python·学习
一张假钞2 小时前
Spark的基本概念
大数据·分布式·spark
一张假钞2 小时前
Spark On Yarn External Shuffle Service
大数据·分布式·spark
玄客)2 小时前
PHP代码审计学习02
学习