写在开头:本文用于作者学习Java常用API
我将官方文档中Encoders类中所有API全测了一遍并打印了结果,日拱一卒,常看常新
在Spark中,Encoders类提供了一些静态方法用于创建不同数据类型的编码器。
首先,我遇到这样一个问题,就是:
Encoder<String> string = org.apache.spark.sql.Encoders.STRING();标黄的这个包必须得加,如果我不加,自动导包导得是 import org.apache.spark.network.protocol.Encoders;这个包
但是我需要org.apache.spark.sql.Encoders这个包的这个类,所以加了完整的类路径。下面是Encoders的API介绍
1. Encoders.STRING()
// 创建一个String类型的编码器
java
@Test
// 创建一个String类型的编码器
// 1. Encoders.STRING()
public void test_STRING(){
Encoder<String> string = org.apache.spark.sql.Encoders.STRING();
System.out.println(string);//class[value[0]: string]
System.out.println(string.schema());//StructType(StructField(value,StringType,true))
}
2. Encoders.INT()
// 创建一个Integer类型的编码器
java
@Test
// 创建一个Integer类型的编码器
// 2. Encoders.INT()
public void test_INT(){
Encoder<Integer> anInt = org.apache.spark.sql.Encoders.INT();
System.out.println(anInt);//class[value[0]: int]
}
3. Encoders.bean(MyClass.class)
// 创建一个自定义类的编码器,其中MyClass是自定义类的类名
java
@Test
// 创建一个自定义类的编码器,其中MyClass是自定义类的类名
// 3. Encoders.bean(MyClass.class)
public void test_bean(){
Encoder<MyClass> myClassEncoder = org.apache.spark.sql.Encoders.bean(MyClass.class);
System.out.println(myClassEncoder.clsTag());//com.atguigu.sparksql.MyClass
System.out.println(myClassEncoder.schema());//StructType()
}
4. Encoders.kryo(MyClass.class)
// 创建一个使用Kryo序列化的自定义类的编码器
java
@Test
// 创建一个使用Kryo序列化的自定义类的编码器
// 4. Encoders.kryo(MyClass.class)
public void test_kryo(){
Encoder<MyClass> kryo = org.apache.spark.sql.Encoders.kryo(MyClass.class);
System.out.println(kryo);//class[value[0]: binary]
System.out.println(kryo.schema());//StructType(StructField(value,BinaryType,true))
System.out.println(kryo.clsTag());//com.atguigu.sparksql.MyClass
}
5. Encoders.tuple(Encoders.INT(), Encoders.STRING())
// 创建一个元组编码器,用于将多个数据类型组合成一个元组
java
@Test
// 创建一个元组编码器,用于将多个数据类型组合成一个元组
// 5. Encoders.tuple(Encoders.INT(), Encoders.STRING())
public void test_tuple(){
Encoder<Tuple2<Integer, String>> tupleEncoder = org.apache.spark.sql.Encoders.tuple(org.apache.spark.sql.Encoders.INT(), org.apache.spark.sql.Encoders.STRING());
System.out.println(tupleEncoder);//class[_1[0]: int, _2[0]: string]
System.out.println(tupleEncoder.clsTag());//scala.Tuple2
System.out.println(tupleEncoder.schema());//StructType(StructField(_1,IntegerType,true),StructField(_2,StringType,true))
}