我的型号太大了,不能用普通的v2 TPU设备来获得一个batch>;64。在troubleshooting网站上提到,即将推出的tensorflow版本将支持bfloat16。新支持的tf版本1.9-1.12现在是否能够使用bfloat16?如果是,是否有一组有限的优化器可以使用?我没有找到关于这个的任何进一步的文档,但是在tensor2tensor模型中看到了bfloat16的用法,所以我想肯定有一种方法。在
此外,我读到了TPU v3 supports bigger models as well但是模型需要最小的更改,但是我没有找到任何需要更改的文档。在
我已经在使用Adafactor并试图减少我的层,如果你有任何进一步的减少技巧,那也太好了。我使用图片矩阵和单词向量(目前是float32)作为输入。在
您可以将
bfloat16
与tpu一起使用。主要有两件事要做:下面是一个代码片段,说明了必要的更改:
您还可以看到this TPU model中说明的第二个条件。在
相关问题 更多 >
编程相关推荐