1.档案不对导致取数为空,仔细注意档案是否取错
2.数据库URL若是从外部文件引入,注意是否读外部文件成功
3.env.fromCollect(strings)转出的是DataStreamSource[String],而LeoUtils.getSourceDataStream(env, inputTopic, subId)转出的是DataStream[String],
这俩无论是豆包还是哪里都说可以混用,但绝对不能混用,因为DataStreamSource[String]在RichMapFunction或是MAP(_.toUpperCase)中,传入的数据都是nothing类型,会导致报错。
4.DataStream[String]必须是import org.apache.flink.streaming.api.datastream.DataStream,最好手动引入,不然DataStreamSource[String].asInstanceOf[DataStream]
默认转出的是org.apache.flink.streaming.api.scala.DataStream,会因为java不能转scala导致报错。
5.RichMapFunction在实现过程当中需要重写map,open,close方法,其中当不涉及数据库连接的时候可以不重写open,close方法
6.重写RichMapFunction过程中,需要预定义输入输出类型,若输入输出类型与dataStreamSource类型不一致时是会报错的
7.org.postgresql.Driver已不使用。用com.bmsoft.postgresql.Driver代替
8.PgUtils/GsUtils的query使用有问题,会未消费前提前关闭ResultSet,已修改;execSql由于返回Bealean,所以不会有同样问题
9.ArrayBuffer 与 Array 不能union ++ 等操作
10.ResultSet不能使用样例类,得(dei)用(String,String,...)
11.注意nonEmpty在遇到null值时会报错,慎用
12.读hbase有一定几率报错
13.getOrElse应用在样例类缺少对应字段数据的时候会添加默认值,已有字段无论是什么样的数据都会写入
14.flink必须要有source处理类,不然就会报错,但主节点做的操作仍然会执行并打印
15.在addSink(new SinkClass)时,sinkClass里会重写invoke , open, close方法,此时,在invoke里面不需要重新连接数据库,不仅不能连,还会报错
16.ResultSet是游标不是数据容器,当conn与 prepareStatement被关闭的时候,它也会同时关闭,所以数据要提前算出来结果再进行finally
17.GAUSS或是Pg都有最大连接数问题,所以,最好的方式是动态获取数据库连接信息 频繁调用getConnection ,虽然不理解,谁叫咱们数据库查的表多呢,在flink中 open预加载连接信息,
但由于最大连接数限制,在访问一定次数数据库后就会报空指针问题。这是由于连接数满了,导致conn被重置了
18.注意在使用连接数据库得到ResultSet时,数据库连接必须要用 conn = GsUtils.getConnection();ps = gsConn2.prepareStatement(sql) ; re = ps.executeQuery() 方式,
并显式关闭数据库连接(try{}finally{}),否则会发生资源泄露的重大事件。
19.open中可以不在open中get connection