spark与flink的wordcount示例

spark的wordcount示例:

scala 复制代码
package spark

import org.apache.spark._

object TestSparkWordCount {
  def main(args: Array[String]): Unit = {
    val sc = new SparkContext(new SparkConf().setAppName("wordcount").setMaster("local[*]"))
//    hello scala
//    hello spark
    val rdd = sc.textFile("src/main/resources/test.txt")
    val wordCount = rdd.flatMap(line => line.split(" "))
      .map(word => (word, 1))
      .reduceByKey((a, b) => (a + b))
    wordCount.foreach(println)
//    (spark,1)
//    (scala,1)
//    (hello,2)
  }

}

flink的wordcount示例:

scala 复制代码
package com.pinko.testcase

import org.apache.flink.streaming.api.scala.StreamExecutionEnvironment
import org.apache.flink.api.scala._
object StreamWordCount {
  def main(args: Array[String]): Unit = {
    val env = StreamExecutionEnvironment.getExecutionEnvironment
    env.setParallelism(1)
//    hello world
//    hello flink
    val text = env.readTextFile("src/main/resources/output/1.txt")
    val result = text.flatMap(_.split(" "))
      .map((_, 1))
      .keyBy(0)
      .sum(1)
    result.print("result")
    env.execute("StreamWordCount")
//    result> (hello,1)
//    result> (world,1)
//    result> (hello,2)
//    result> (flink,1)
  }

}
相关推荐
isNotNullX2 小时前
怎么用数据仓库来进行数据治理?
大数据·数据库·数据仓库·数据治理
HitpointNetSuite3 小时前
连锁餐饮行业ERP系统如何选择?
大数据·数据库·oracle·netsuite·erp
zskj_zhyl3 小时前
科技助老与智慧养老的国家级政策与地方实践探索
大数据·人工智能·科技
YangYang9YangYan3 小时前
职业本科发展路径与规划指南
大数据·人工智能·学习·数据分析
V_156560272194 小时前
2025年蚌埠市“三首产品”、市级服务型制造示范、市级企业技术中心等5个项目认定申报指南大全
大数据·人工智能·制造
liliangcsdn4 小时前
如何基于DSL脚本进行elasticsearch向量检索示例
大数据·elasticsearch·搜索引擎
周杰伦_Jay4 小时前
【电商微服务日志处理全方案】从MySQL瓶颈到大数据架构的实战转型
大数据·mysql·微服务·架构
闲人编程4 小时前
Python与大数据:使用PySpark处理海量数据
大数据·开发语言·分布式·python·spark·codecapsule·大规模
程序员小羊!4 小时前
电商项目练习实操(二)
大数据·数据分析·etl·flume
谅望者5 小时前
数据分析笔记01:数据分析概述
大数据·数据库·数据仓库·数据分析