我想将大numpyndarray
序列化为TFRecord
。问题是,这个过程如果慢得令人痛苦。对于大小为(1000000,65)的数组,几乎需要一分钟的时间。将其序列化为其他二进制格式(HDF5、npy、拼花…)只需不到一秒钟。我很确定有一种更快的方法来序列化它,但我就是想不出来
import numpy as np
import tensorflow as tf
X = np.random.randn(1000000, 65)
def write_tf_dataset(data: np.ndarray, path: str):
with tf.io.TFRecordWriter(path=path) as writer:
for record in data:
feature = {'X': tf.train.Feature(float_list=tf.train.FloatList(value=record[:42])),
'Y': tf.train.Feature(float_list=tf.train.FloatList(value=record[42:64])),
'Z': tf.train.Feature(float_list=tf.train.FloatList(value=[record[64]]))}
example = tf.train.Example(features=tf.train.Features(feature=feature))
serialized = example.SerializeToString()
writer.write(serialized)
write_tf_dataset(X, 'X.tfrecord')
如何提高write_tf_dataset
的性能?myX
的大小比代码段中的大小大200倍
我不是第一个抱怨TFRecord
性能缓慢的人。基于this Tensorflow Github issue,我制作了第二个版本的函数:
import pickle
def write_tf_dataset(data: np.ndarray, path: str):
with tf.io.TFRecordWriter(path=path) as writer:
for record in data:
feature = {
'X': tf.io.serialize_tensor(record[:42]).numpy(),
'Y': tf.io.serialize_tensor(record[42:64]).numpy(),
'Z': tf.io.serialize_tensor(record[64]).numpy(),
}
serialized = pickle.dumps(feature)
writer.write(serialized)
。。。但如果表现更糟。想法
解决方法是使用
multiprocessing
包。您可以将多个进程写入同一个TFRecord文件,或者将每个进程写入不同的文件(我认为建议使用多个(小)TFRecords,而不是单个(大)文件,因为从多个源读取更快):相关问题 更多 >
编程相关推荐