目录
统计不同性别的年龄总和,最大值,最小值,平均值
python
from pyspark import SparkContext
sc = SparkContext()
# 1- 读取hdfs中的学生数据
rdd = sc.textFile('hdfs://node1:8020/data/student.txt')
# 2- 使用转化算子进行数据处理
# map中的lambda表达式,必须定义一个参数,用来接收rdd中的元素数据, 注意:x参数如何处理,要看x接收的数据类型
rdd2 = rdd.map(lambda x:x.split(','))
# 将转换后的kv进行分组,把分组的字段作为key值
rdd3 = rdd2.map(lambda x:(x[2],x))
# 使用groupbykey方法,按照key进行分组
rdd4 = rdd3.groupByKey() # ('F', <pyspark.resultiterable.ResultIterable object at 0x7f7fea109760>)
# 需要使用mapvalue转化分组后的数据
rdd5 = rdd4.mapValues(lambda x:list(x))
## todo 统计不同性别的年龄总和 最大值 最小值 平均值
# 将需要计算的数据转为kv结构 分组的字段是key值 聚合数据是value值
rdd6 = rdd2.map(lambda x:(x[2],int(x[3])))
# 使用reduceBykey方式进行聚合计算 会将相同key值的数据先合并,然后在聚合计算
# 聚合计算的算子,lambda x,y 需要结构两个参数
# 计算总和
rdd7 = rdd6.reduceByKey(lambda x,y:x+y) # 使用有局限性,无法进行平均数 最大值 最小值 数量 总数/数量
# 计算平均值
rdd8 = rdd6.groupByKey().mapValues(lambda x:sum(list(x)) / len(list(x)))
# 计算最大值
rdd9 = rdd6.groupByKey().mapValues(lambda x:max(list(x)))
# 计算最小值
rdd10 = rdd6.groupByKey().mapValues(lambda x:min(list(x)))
# 查看数据
res6 = rdd6.collect()
print(res6)
res7 = rdd7.collect()
print(res7)
res8 = rdd8.collect()
print(res8)
res9 = rdd9.collect()
print(res9)
res10 = rdd10.collect()
print(res10)
计算不同性别不同年龄的年龄平均值
python
from pyspark import SparkContext
sc = SparkContext()
# 1-读取文件数据
rdd = sc.textFile('hdfs://node1:8020/data/students.txt')
# 2-切割每行数据
rdd_line = rdd.map(lambda x:x.split(','))
# 计算不同性别不同年级的年龄平均值
# 方式一 (x[2],x[4])
rdd_kv2 = rdd_line.map(lambda x : ((x[2],x[4]),int(x[3])))
rdd_res2 = rdd_kv2.groupByKey().mapValues(lambda x : sum(list(x)) / len(list(x)))
# 方式二 x[2]+x[4]
rdd_kv3 = rdd_line.map(lambda x : (x[2]+x[4],int(x[3])))
rdd_res3 = rdd_kv2.groupByKey().mapValues(lambda x : sum(list(x)) / len(list(x)))
# 3-查看数据
res3 = rdd_kv2.collect()
print(res3)
res4 = rdd_res2.collect()
print(res4)
res6 = rdd_res3.collect()
print(res6)
res7 = rdd_res3.collect()
print(res7)
虽然两种map不同,但是结果相同