2024-04-26 14:38:15 发布
网友
我正在尝试使用Keras库将深度学习应用到我的分类问题中。我在GPU上运行它,但它内存不足(我的GPU很旧),即使我使用的批大小是1。当我缩小图像大小时,它是有效的;但调整大小的图像是如此模糊,我失去了重要的信息。因此,精度不是很好。 我想知道在Keras中是否可以在每次迭代中将批大小(不是完整的数据集)添加到共享变量中,然后在下一次迭代中再次加载新的映像并更新共享变量?我读了一些Keras教程,但我不确定它是否可行,如果可行,如何?在
如果你能帮我解决这个问题,我将不胜感激
目前没有回答
目前没有回答
相关问题 更多 >
编程相关推荐