我正在使用Dask加载存储在SQLite数据库中的一个相当大的数据集(比我现有的可用RAM大得多),如下所示:
df = dd.read_sql_table("22", "sqlite:///db.sqlite", index_col="id")
然后,我想使用tensorflow_decision_forests
来尝试使一些模型适合数据。根据tensorflow_decision_forests
的文档,以下内容适用于熊猫数据帧:
import tensorflow_decision_forests as tfdf
train_ds = tfdf.keras.pd_dataframe_to_tf_dataset(df, label="species")
model = tfdf.keras.RandomForestModel()
model.fit(train_ds)
然而,当我在Dask数据帧中使用tfdf.keras.pd_dataframe_to_tf_dataset
时,很长一段时间内没有任何事情发生,然后python会突然终止,并发出SIGTERM
信号。我猜这不是将Dask数据帧转换为Keras数据集的正确方法,尽管不会引发错误/异常。使用存储在Keras Dask数据帧中的数据的正确方法是什么?具体来说,将Dask数据帧转换为Keras数据集的正确方法是什么
目前没有回答
相关问题 更多 >
编程相关推荐