我有一个pythonspark代码,如下所示。它基本上是从self.user_RDD
获取{
for user_id in self.user_RDD.collect():
product_CF = self.getpreferredProducts(user_id)
try:
product_list = json.loads(redis_client.hget('user_products',user_id))
# combine 2 list
for product_id in product_list:
if product_id in product_CF:
product_CF.remove(product_id)
product_list.extend(product_CF)
r.hset('score',user_id,str(json.dumps(product_list)))
except Exception as e:
print e
当有一个巨大的数据集时,它会在执行过程中停止并引发以下异常
^{pr2}$
这是空间的问题。我正在将
score
存储到本地Redis实例中。然后我创建了AWS Redis并开始存储。问题解决了。在相关问题 更多 >
编程相关推荐