TensorFlow:在培训BLSTM时GPU未充分利用

2024-04-29 16:10:31 发布

您现在位置:Python中文网/ 问答频道 /正文

我正在尝试创建一个端到端可训练的脱机英文手写识别模型(不分割单个字符)。来自IAM手写数据库的word数据集正在用于训练模型。在

该模型训练非常缓慢,GPU利用率仅徘徊在30%左右。同时收到池分配器警告-

PoolAllocator: After 89632424 get requests, put_count=89632402 evicted_count=175000 eviction_rate=0.00195242 and unsatisfied allocation rate=0.00195474

尝试更改批大小,但没有成功。数据正在通过TFRecords文件馈送(是否会导致问题?)。我不熟悉TensorFlow,所以可能犯了一些天真的错误。使用的代码:

^{pr2}$

Tags: 数据模型数据库警告gpuratecount利用率