目录
[run 方法:](#run 方法:)
[cancel 方法:](#cancel 方法:)

Scala
package source
import java.util.Calendar
import org.apache.flink.streaming.api.functions.source.{ParallelSourceFunction, SourceFunction}
import org.apache.flink.streaming.api.watermark.Watermark
import scala.util.Random
/**
*
* @PROJECT_NAME: flink1.13
* @PACKAGE_NAME: source
* @author: 赵嘉盟-HONOR
* @data: 2025-05-19 2:20
* @DESCRIPTION
*
*/
//class ClickSource extends SourceFunction[Event]{ //串行执行
class ClickSource extends ParallelSourceFunction[Event]{ //并行执行
var Running=true
override def run(sourceContext: SourceFunction.SourceContext[Event]): Unit = {
val random = new Random()
val users=Array("Mary","Alice","Bob","Cary")
val urls=Array("./home","./cart","./fav","./prod?id=1","./prod?id=2","./prod?id=3")
while (Running){
val event=Event(
users(random.nextInt(users.length)),
urls(random.nextInt(urls.length)),
Calendar.getInstance.getTimeInMillis
)
/* //为要发送的数据分配时间戳
sourceContext.collectWithTimestamp(event,event.timestamp)
//像下游直接发送水位线
sourceContext.emitWatermark(new Watermark(event.timestamp-1L))*/
sourceContext.collect(event)
Thread.sleep(1000)
}
}
override def cancel(): Unit = {
Running=false
}
}
这段代码定义了一个自定义的 Flink 数据源 ClickSource,它实现了 ParallelSourceFunction[Event] 接口,用于生成模拟的用户点击事件流。以下是代码的详细解释:
代码分析:
类定义:
ClickSource类实现了ParallelSourceFunction[Event]接口,这意味着它是一个可以并行执行的 Flink 数据源。Event是一个自定义的数据类型,表示用户点击事件。
成员变量:
Running是一个布尔变量,用于控制数据源的运行状态。当Running为true时,数据源会持续生成事件;当Running为false时,数据源停止生成事件。
run 方法:
run方法是SourceFunction的核心方法,用于生成数据并发送到 Flink 的数据流中。random是一个Random对象,用于生成随机数。users和urls是两个数组,分别存储了模拟的用户名和 URL。- 在
while循环中,代码随机选择一个用户和一个 URL,生成一个Event对象,并将其发送到 Flink 的数据流中。 sourceContext.collect(event)用于将生成的Event发送到下游。Thread.sleep(1000)用于控制事件生成的频率,这里设置为每秒生成一个事件。
cancel 方法:
cancel方法用于停止数据源的运行,将Running设置为false。
时间戳和水位线:
- 注释掉的代码
sourceContext.collectWithTimestamp(event, event.timestamp)和sourceContext.emitWatermark(new Watermark(event.timestamp - 1L))用于为事件分配时间戳和发送水位线。水位线是 Flink 中用于处理事件时间的重要机制。
代码拓展
增加事件类型:
- 可以扩展
Event类,增加更多的事件类型,例如点击类型(如"浏览"、"购买"等),以便生成更复杂的事件流。
Scala
case class Event(user: String, url: String, eventType: String, timestamp: Long)
动态调整事件生成频率:
- 可以通过外部配置或动态参数来调整事件生成的频率,而不是硬编码
Thread.sleep(1000)。
Scala
val interval = 1000 // 可以从配置文件中读取
Thread.sleep(interval)
增加事件过滤:
- 可以在生成事件时增加过滤逻辑,例如只生成特定用户或特定 URL 的事件。
Scala
if (event.user == "Mary") {
sourceContext.collect(event)
}
增加事件聚合:
- 可以在生成事件时进行简单的聚合,例如统计每个用户的点击次数。
Scala
val userClickCount = scala.collection.mutable.Map[String, Int]()
userClickCount(event.user) = userClickCount.getOrElse(event.user, 0) + 1
-
增加事件序列化:
- 如果需要将事件发送到 Kafka 或其他消息队列,可以增加事件的序列化逻辑。
Scalaval serializedEvent = serialize(event) sourceContext.collect(serializedEvent)
增加事件重试机制:
- 在发送事件时,可以增加重试机制,以应对网络或下游系统的故障。
Scala
var retryCount = 0
while (retryCount < 3) {
try {
sourceContext.collect(event)
retryCount = 3
} catch {
case e: Exception =>
retryCount += 1
Thread.sleep(1000)
}
}
增加事件分区:
- 如果需要将事件发送到不同的分区,可以根据事件的某些属性(如用户 ID)进行分区。
Scala
val partition = event.user.hashCode % numPartitions
sourceContext.collect(partition, event)
通过这些扩展,可以使 ClickSource 更加灵活和强大,适应不同的业务需求。