为了获取批量数据,我实现了如下代码:
def load_sample(batch_size, f_pos):
polist = []
for i in range(batch_size):
line = f_pos.readline().strip()
if not line:
break
polist.append(line.strip('\n').strip().split())
data = np.array(polist, dtype=np.float32)
return data
f = open('file.txt')
batch_size_data = load_sample(batch_size, file)
我发现在输入dict之前加载样本的过程需要很长时间,大约50秒,而整个时代是80年代
如何优化这个函数?它的哪一部分比较耗时?你知道吗
目前没有回答
相关问题 更多 >
编程相关推荐