Flink Format系列(2)-CSV

Flink的csv格式支持读和写csv格式的数据,只需要指定 'format' = 'csv',下面以kafka为例。

复制代码
CREATE TABLE user_behavior (
  user_id BIGINT,
  item_id BIGINT,
  category_id BIGINT,
  behavior STRING,
  ts TIMESTAMP(3)
) WITH (
 'connector' = 'kafka',
 'topic' = 'user_behavior',
 'properties.bootstrap.servers' = 'localhost:9092',
 'properties.group.id' = 'testGroup',
 'format' = 'csv',
 'csv.ignore-parse-errors' = 'true',
 'csv.allow-comments' = 'true'
)

关键配置的说明

csv.ignore-parse-errors:就是在解析csv失败时是否报错

csv.allow-comments:是否允许有注释行(即#开头的行)

csv.field-delimiter:csv的字段分隔符,默认是逗号,

csv.quote-character:csv包裹字段值的符号,默认是" 。要注意该值的作用,比如如果字段包含换行符、双引号和/或逗号的字段应当被""包裹。字段值本身包含引号的话,一个(双)引号字符必须被表示为两个(双)引号字符。即 """" 表示了字段值 "

csv.disable-quote-character:是否禁用引号来包裹字段值,默认值是false,假如设置为true,则csv.quote-character将不能设置。

csv.escape-character:转义字符来转义,默认值空,即不可用

csv类型和flink sql类型的对应关系

相关推荐
最初的↘那颗心35 分钟前
Flink Stream API 源码走读 - print()
java·大数据·hadoop·flink·实时计算
君不见,青丝成雪2 小时前
hadoop技术栈(九)Hbase替代方案
大数据·hadoop·hbase
晴天彩虹雨2 小时前
存算分离与云原生:数据平台的新基石
大数据·hadoop·云原生·spark
朗迪锋2 小时前
数字孪生 :提高制造生产力的智能方法
大数据·人工智能·制造
杨荧3 小时前
基于Python的宠物服务管理系统 Python+Django+Vue.js
大数据·前端·vue.js·爬虫·python·信息可视化
健康平安的活着3 小时前
es7.x es的高亮与solr高亮查询的对比&对比说明
大数据·elasticsearch·solr
缘华工业智维4 小时前
CNN 在故障诊断中的应用:原理、案例与优势
大数据·运维·cnn
更深兼春远4 小时前
spark+scala安装部署
大数据·spark·scala
阿里云大数据AI技术5 小时前
ODPS 十五周年实录 | 为 AI 而生的数据平台
大数据·数据分析·开源
哈哈很哈哈6 小时前
Spark 运行流程核心组件(三)任务执行
大数据·分布式·spark