今天在用pyspark
的时候在一个类中调用rdd的map
的时候报错,代码如下:
rdd = df.filter(size(df.emission) > 50).\
rdd.map(lambda row:hmm_learn(row, self._id))
rdd.collect()
运行的时候报错:
pickle.PicklingError: Cannot pickle files that are not opened for reading
调试了半天才发现是self._id
导致的问题,把self._id
换成一个普通的变量即可。
原因是我猜的:在每一个task运行的时候已经没有self
这个对象了,没有深究原因了。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)