技术栈
flink
阿里云大数据AI技术
14 小时前
大数据
·
flink
云栖实录 | 驰骋在数据洪流上:Flink+Hologres驱动零跑科技实时计算的应用与实践
本文根据 2025 云栖大会演讲整理而成,演讲信息如下演讲人: 聂清 零跑汽车大数据高级专家零跑科技成立于2015年12月,总部位于浙江杭州,是国内造车新势力中唯一具备全域自研自造能力及垂直整合度最高的智能电动车企业。业务涵盖整车设计、研发制造、智能驾驶等领域,始终致力于为用户创造价值。
驾数者
16 小时前
大数据
·
sql
·
flink
深入理解 Flink SQL 状态:原理、应用与优化
在大数据实时处理领域,Apache Flink 凭借其卓越的流处理能力脱颖而出。而 Flink SQL 作为简化 Flink 开发的利器,其背后的状态管理机制对于实现复杂的实时计算任务至关重要。本文将深入探讨 Flink SQL 状态,从其原理、应用场景到优化技巧,全方位带你揭开它的神秘面纱。
暴躁哥
18 小时前
flink
Flink DatastreamAPI 详解(一)
reduce函数是一个增量聚合函数,它会:效果:保持key不变,累加value值假设窗口内有以下数据:
Olrookie
2 天前
大数据
·
笔记
·
flink
StreamX部署详细步骤
之前学习StreamX时留下的笔记,在这里做记录以便后续查看StreamX标准化了配置、开发、测试、部署、监控、运维的整个过程,打造一个一站式大数据平台,流批一体,湖仓一体的解决方案 StreamX的特色:
wending-Y
2 天前
flink
·
kafka
·
linq
如何正确理解flink 消费kafka时的watermark
在source 层面用全量数据watermark 对后面的窗口计算是否有影响?全是数据生成的watermark是20-5=15 order 数据生成的watermark是 20-5=15 click 数据生成的watermark是 18-5=13 假设窗口大小是10s,现在又来了一条数据25s(order) 这里会导致窗口生成的watermark是25-5=20,刚好可以触发窗口计算了,可实际上可click这个数据流还有部分数据未到达,比如19(click) 就会漏算。所以这样生成watermark会有问
wudl5566
3 天前
大数据
·
sql
·
flink
Flink 1.20 自定义SQL连接器实战
📚 完整讲解 Apache Flink 1.20 自定义 Table/SQL 连接器开发,包含完整 HTTP 连接器源码和示例
想ai抽
4 天前
java
·
大数据
·
flink
Flink中的Lookup join和Temporal join 的语法是一样的吗?
表面语法相似(均用到 FOR SYSTEM_TIME AS OF),但本质逻辑、适用场景和维表特性完全不同—— 形似神异,核心区别在于维表的 “版本化特性” 和 FOR SYSTEM_TIME AS OF 的实际作用。
阿里云大数据AI技术
5 天前
数据分析
·
flink
云栖实录 | 理想汽车基于 Hologres + Flink 构建万亿级车联网信号实时分析平台
作者:海博 理想汽车高级大数据工程师、贾天福 理想汽车高级大数据工程师随着电动车和智能汽车的快速普及,车联网信号数据呈现爆发式增长。理想汽车作为国内领先的智能电动汽车企业,已拥有超过100万辆在网车辆,每辆车每秒上报多达上万个信号(如车速、胎压、温度、电池状态等),整体数据规模达到万亿级别。这些数据不仅体量巨大,而且对实时性要求极高——端到端延迟需控制在2秒以内,至少不超过5秒,以支撑数字孪生、智能诊断、车辆预警等关键业务场景。
想ai抽
5 天前
大数据
·
flink
·
batch
Flink的checkpoint interval与mini-batch什么区别?
checkpoint用于保障稳定性;mini batch为了性能优化。两者的唯一联系是 “均采用批量处理的形式”,但本质是 “同形异质”:
教练、我想打篮球
5 天前
python
·
flink
·
pyflink
12 pyflink 的一个基础使用, 以及环境相关
这是 最近有一个 来自于朋友的 pyflink 的使用需求然后 看到了 很多 pyflink 这边的和 使用 java, scala 的 api 使用上的很多差异
Hello.Reader
5 天前
java
·
python
·
flink
在 Flink 中用好 Java 8 Lambda类型推断、`.returns(...)` 与常见坑位
症状:抛出返回 Tuple 的 map:也可用 new TypeHint<Tuple2<Integer,Integer>>(){}:
隔壁寝室老吴
5 天前
大数据
·
flink
Flink中自定义序列化器
Flink中有自己的序列化器和Kryo序列化器,当不满足Flink中类型定义的要求的的时候,就会回退到使用Kryo序列化器,而通常使用Kryo序列化器比使用Flink的序列化器性能要低很多。
想ai抽
6 天前
大数据
·
flink
Flink重启策略有啥用
要判断哪种故障适用 Flink 重启策略,核心标准是“故障是否为临时性、重试后可自愈”;不适用的故障则是 “永久性、重试无法解决根本问题” 的类型。以下结合重启策略的核心逻辑(重试恢复),具体拆解适用与不适用的故障场景
武子康
6 天前
大数据
·
后端
·
flink
大数据-132 Flink SQL 实战入门 | 3 分钟跑通 Table API + SQL 含 toChangelogStream 新写法
Flink SQL 是 Apache Flink 提供的一种高层次的查询语言接口,它基于 SQL 标准,为开发者提供了处理流式数据和批处理数据的能力。Flink SQL 允许用户使用标准 SQL 查询语言在数据流和数据表上执行复杂的操作,适用于多种应用场景,如实时分析、数据流处理、机器学习等。
jiedaodezhuti
6 天前
大数据
·
flink
Flink性能调优基石:资源配置与内存优化实践
在实时计算领域,Apache Flink以其高吞吐、低延迟和精确的状态管理能力成为业界首选。然而,一个配置不当的Flink作业,即使逻辑再完美,也无法在生产环境中发挥其真正的潜力。性能调优是一项系统工程,而资源配置调优正是这一工程的基石与起点。
wudl5566
7 天前
大数据
·
flink
Flink 1.19 REST API
本文档详细描述了如何使用 Spring Boot (JDK 17) 开发一套用于与 Apache Flink 1.19 REST API 进行交互的服务,以实现以下功能:
武子康
7 天前
大数据
·
后端
·
flink
大数据-131 Flink CEP 实战 24 小时≥5 次交易 & 10 分钟未支付检测 案例附代码
场景:需要在流上做累计计数(24h≥5 次)和超时未支付检测。 结论:用 CEP 的 times/timesOrMore/within 组合,配合 skipPastLastEvent 抑制重复;Watermark 用官方策略即可,代码可复制即跑。 产出:两段可运行示例(含 Watermark)、侧输出模板、易错点速查。
wudl5566
7 天前
sql
·
flink
·
linq
Flink SQL 窗口函数详细
Flink SQL窗口函数是流处理中非常重要的概念,它允许我们在无限的数据流上定义有限的数据窗口,从而进行聚合计算、分析和其他操作。窗口函数将流数据划分为有限大小的"桶",在这些桶上可以应用计算。
Hello.Reader
8 天前
大数据
·
python
·
flink
Flink DataStream「全分区窗口处理」mapPartition / sortPartition / aggregate / reduce
注意:PartitionWindowedStream 的“完整窗口”在输入结束时触发(bounded/batch 最直观;unbounded 流通常意味着直到作业停止才会触发)。因此**更适合有界流(批处理)**或“明确的结束信号/分区闭合”场景。
wudl5566
8 天前
sql
·
flink
·
kafka
Flink SQL 与 Kafka 整合详细教程
📚 全面讲解 Apache Flink SQL 与 Kafka 的整合使用,包含完整的实战案例核心优势: