Spark累加器实验

以下代码用 Pyspark + IPython 完成

创新互联公司的客户来自各行各业,为了共同目标,我们在工作上密切配合,从创业型小企业到企事业单位,感谢他们对我们的要求,感谢他们从不同领域给我们带来的挑战,让我们激情的团队有机会用头脑与智慧不断的给客户带来惊喜。专业领域包括做网站、网站建设、电商网站开发、微信营销、系统平台开发。

统计日志空行的数量:

读取日志,创建RDD:

myrdd = sc.textFile("access.log")

  1. 不使用累加器:

In [68]: s = 0
In [69]: def f(x):
    ...:     global s
    ...:     if len(x) == 0:
    ...:         s += 1
    ...:
In [70]: myrdd.foreach(f)
In [71]: print (s)

得出结果为:

0

原因是python 的变量,即使是全局变量不能应用在各个计算进程(线程)中同步数据,所以需要分布式计算框架的变量来同步数据,Spark 中采用累加器来解决:

  1. 使用累加器

In [64]: s = sc.accumulator(0)
In [65]: def f(x):
    ...:     global s
    ...:     if len(x) == 0:
    ...:         s += 1
    ...:
In [66]: myrdd.foreach(f)
In [67]: print (s)

得出正确结果:

14


本文名称:Spark累加器实验
浏览路径:http://hxwzsj.com/article/pdisdp.html

其他资讯

Copyright © 2025 青羊区翔捷宏鑫字牌设计制作工作室(个体工商户) All Rights Reserved 蜀ICP备2025123194号-14
友情链接: 成都响应式网站建设 企业网站设计 LED网站设计方案 网站建设改版 重庆网站制作 重庆电商网站建设 成都网站制作 营销网站建设 成都响应式网站建设公司 营销型网站建设 网站制作 成都网站建设 营销网站建设 营销型网站建设 温江网站设计 响应式网站设计 成都网站建设 成都网站设计 重庆网站制作 网站建设方案 定制级高端网站建设 公司网站建设