Flink Format系列(2)-CSV

Flink的csv格式支持读和写csv格式的数据,只需要指定 'format' = 'csv',下面以kafka为例。

复制代码
CREATE TABLE user_behavior (
  user_id BIGINT,
  item_id BIGINT,
  category_id BIGINT,
  behavior STRING,
  ts TIMESTAMP(3)
) WITH (
 'connector' = 'kafka',
 'topic' = 'user_behavior',
 'properties.bootstrap.servers' = 'localhost:9092',
 'properties.group.id' = 'testGroup',
 'format' = 'csv',
 'csv.ignore-parse-errors' = 'true',
 'csv.allow-comments' = 'true'
)

关键配置的说明

csv.ignore-parse-errors:就是在解析csv失败时是否报错

csv.allow-comments:是否允许有注释行(即#开头的行)

csv.field-delimiter:csv的字段分隔符,默认是逗号,

csv.quote-character:csv包裹字段值的符号,默认是" 。要注意该值的作用,比如如果字段包含换行符、双引号和/或逗号的字段应当被""包裹。字段值本身包含引号的话,一个(双)引号字符必须被表示为两个(双)引号字符。即 """" 表示了字段值 "

csv.disable-quote-character:是否禁用引号来包裹字段值,默认值是false,假如设置为true,则csv.quote-character将不能设置。

csv.escape-character:转义字符来转义,默认值空,即不可用

csv类型和flink sql类型的对应关系

相关推荐
阿里云大数据AI技术35 分钟前
[VLDB 2025]面向Flink集群巡检的交叉对比学习异常检测
大数据·人工智能·flink
青云交1 小时前
电科金仓 KingbaseES 深度解码:技术突破・行业实践・沙龙邀约 -- 融合数据库的变革之力
大数据·数据安全·数字化转型·kingbasees·企业级应用·融合数据库·多模存储
shinelord明1 小时前
【计算机网络架构】网状型架构简介
大数据·分布式·计算机网络·架构·计算机科学与技术
lucky_syq2 小时前
Flink窗口:解锁流计算的秘密武器
大数据·flink
明天好,会的3 小时前
从Spark/Flink到WASM:流式处理框架的演进与未来展望
flink·spark·wasm
gorgor在码农4 小时前
Elasticsearch 的聚合(Aggregations)操作详解
大数据·elasticsearch·搜索引擎
BigData共享4 小时前
StarRocks 使用 JNI 读取数据湖表引发的堆内存溢出分析
大数据
Aurora_NeAr6 小时前
大数据之路:阿里巴巴大数据实践——大数据领域建模综述
大数据·后端
黄雪超6 小时前
Kafka——消费者组消费进度监控都怎么实现?
大数据·分布式·kafka
虚伪的空想家7 小时前
记录es收集日志报错问题as the final mapping would have more than 1 type[XXX,doc]
大数据·elasticsearch·搜索引擎·容器·kubernetes·log-pilot