2024-03-29 08:11:10 发布
网友
我想使用nvidia docker和容器,所有容器都独立运行一些深度学习代码,因此我需要在加载到gpu内存后在所有容器之间共享模型推理,以减少内存使用
所以可能的问题是:我能在gpu内存中加载模型后在容器之间共享模型推理吗(我使用tensorflow、tensorrt、keras)
使用容器和不使用容器可以获得相同的执行时间推断吗? 如何在集装箱之间共享装载后的推理模型
目前没有回答
目前没有回答
相关问题 更多 >
编程相关推荐