Spark reduceByKey算子学习使用详解

作者:高景洋 日期:2020/10/25 10:50 浏览次数:62

reduceByKey:

     按key 分组,并进行计算


示例代码:

统计RDD中,每个单词出现的次数:

def my_reduceByKey():
    data = ['hello spark', 'hello world', 'hello world']
    rdd = sc.parallelize(data)
    map_rdd = rdd.flatMap(lambda line: line.split(' ')).map(lambda x: (x, 1))
    reduce_by_key = map_rdd.reduceByKey(lambda a,b:a+b) 
 print(reduce_by_key.collect())

输出结果:
[('hello', 3), ('spark', 1), ('world', 2)]

本文永久性链接:
<a href="http://www.zhihu.so/art152.aspx">Spark reduceByKey算子学习使用详解</a>
相关文章
友情链接
支付宝打赏(内容对您有帮助的话)
微信交流
知乎编程经验网 - 在工作中总结编程的经验! 备案/许可证编号:鲁ICP备11020152号
QQ:120217215 联系电话:15192695151