我正在尝试创建一个端到端可训练的脱机英文手写识别模型(不分割单个字符)。来自IAM手写数据库的word数据集正在用于训练模型。在
该模型训练非常缓慢,GPU利用率仅徘徊在30%左右。同时收到池分配器警告-
PoolAllocator: After 89632424 get requests, put_count=89632402 evicted_count=175000 eviction_rate=0.00195242 and unsatisfied allocation rate=0.00195474
尝试更改批大小,但没有成功。数据正在通过TFRecords文件馈送(是否会导致问题?)。我不熟悉TensorFlow,所以可能犯了一些天真的错误。使用的代码:
^{pr2}$
问题是因为TensorFlow的CTC实现不支持GPU(参见https://github.com/tensorflow/tensorflow/issues/2146)。在
使用百度的CTC GPU实现(https://github.com/baidu-research/warp-ctc)提高了GPU的利用率,并加快了培训速度。在
相关问题 更多 >
编程相关推荐