加载中
spark

aggregate 在python和scala中高阶函数到底怎么回事,java版实现如下

2015/12/23 00:46
41
spark reduceByKey()和 reduceByKey(,para)的时间差

import time t=[] for i in range(1,10000000000): t.append((i,i)) tsc=sc.parallelize(t) def fun1(d): t1=time.time() d.reduceByKey(lambda x,y:x*y) t2=time.time() return t2-t1 def f...

2015/12/23 00:40
219

没有更多内容

加载失败,请刷新页面

没有更多内容

返回顶部
顶部