Kafka命令行的使用/Spark-Streaming核心编程(二)

Kafka命令行的使用

创建 topic

kafka-topics.sh --create --zookeeper node01:2181,node02:2181,node03:2181 --topic test1 --partitions 3 --replication-factor 3

分区数量,副本数量,都是必须的。

数据的形式:

主题名称-分区编号。

在Kafka的数据目录下查看。

设定副本数量,不能大于broker的数量。

2.2查看所有的topic

kafka-topics.sh --list --zookeeper node01:2181,node02:2181,node03:2181

2.3查看某个topic的详细信息

kafka-topics.sh --describe --zookeeper node01:2181,node02:2181,node03:2181 --topic test1

ISR: In-Sync Replicas 可以提供服务的副本。

AR = ISR + OSR

2.4删除topic

kafka-topics.sh --delete --zookeeper node01:2181,node02:2181,node03:2181 --topic test1

2.5生产数据

kafka-console-producer.sh

指定broker

指定topic

写数据的命令:

kafka-console-producer.sh --broker-list node01:9092,node02:9092,node03:9092 --topic test1

Spark-Streaming核心编程(二)

  1. 需求:通过 SparkStreaming 从 Kafka 读取数据,并将读取过来的数据做简单计算,最终打印到控制台。
  2. 导入依赖

<dependency >
<groupId >org.apache.spark</groupId >
<artifactId >spark-streaming-kafka-0-10_2.12</artifactId >
<version >3.0.0</version >
</dependency >

  1. 编写代码

import org.apache.spark.SparkConf
import org.apache.spark.streaming.{Seconds, StreamingContext}
import org.apache.kafka.clients.consumer.ConsumerRecord
import org.apache.kafka.common.serialization.StringDeserializer
import org.apache.spark.streaming.kafka010._
import org.apache.kafka.clients.consumer.ConsumerConfig
import org.apache.spark.streaming.dstream.{DStream, InputDStream}

object DirectAPI {
def main(args: Array[String]): Unit = {
val sparkConf = new SparkConf().setMaster("local[*]").setAppName("direct")

val ssc = new StreamingContext(sparkConf, Seconds (3))

// 定义 Kafka 相关参数
val kafkaPara: Map[String, Object] = Map [String, Object](
ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG -> "node01:9092,node02:9092,node03:9092",
ConsumerConfig.GROUP_ID_CONFIG -> "kafka",
"key.deserializer" -> classOf [StringDeserializer],
"value.deserializer" -> classOf [StringDeserializer]
)

// 通过读取 Kafka 数据,创建 DStream
val kafkaDStream: InputDStream[ConsumerRecord[String, String]] = KafkaUtils.createDirectStream [String, String](
ssc,
LocationStrategies.PreferConsistent ,
ConsumerStrategies.Subscribe [String, String](Set ("kafka"), kafkaPara)
)

// 提取出数据中的 value 部分
val valueDStream: DStream[String] = kafkaDStream.map(record => record.value())

// wordCount 计算逻辑
valueDStream.flatMap(.split(" "))
.map((
, 1))
.reduceByKey(_ + _)
.print()

ssc.start()
ssc.awaitTermination()
}
}

  1. 开启Kafka集群
  1. 开启Kafka生产者,产生数据

kafka-console-producer.sh --broker-list node01:9092 ,node02:9092,node03:9092 --topic kafka

  1. 运行程序,接收Kafka生产的数据并进行相应处理

8)查看消费进度

kafka-consumer-groups.sh --describe --bootstrap-server node01:9092,node02:9092,node03:9092 --group kafka

相关推荐
zzlyx9943 分钟前
用C#采用Avalonia+Mapsui在离线地图上插入图片画信号扩散图
java·开发语言·c#
云中飞鸿1 小时前
C#类:将Get/Set方法放在一起
c#
合作小小程序员小小店1 小时前
桌面开发,点餐管理系统开发,基于C#,winform,sql server数据库
开发语言·数据库·sql·microsoft·c#
r***18642 小时前
如何使用C#与SQL Server数据库进行交互
数据库·c#·交互
PfCoder3 小时前
WinForm真入门(20)——StatusStrip控件解析
开发语言·windows·c#·winform·statusstrip
合作小小程序员小小店4 小时前
桌面开发,在线%医院管理%系统,基于vs2022,c#,winform,sql server数据
开发语言·数据库·sql·microsoft·c#
合作小小程序员小小店4 小时前
桌面开发,下午茶甜品管理系统开发,基于C#,winform,sql server数据库
开发语言·数据库·sql·microsoft·c#
合作小小程序员小小店5 小时前
桌面开发,拼车管理系统开发,基于C#,winform,sql server数据库
开发语言·数据库·sql·microsoft·c#
wangnaisheng7 小时前
【C#】Newtonsoft.Json、System.Text.Json 解析Json串的对比
c#
自由的好好干活21 小时前
使用Qoder编写ztdaq的C#跨平台示例总结
linux·windows·c#·qoder