在同一Docker中的容器之间共享内存

2024-03-29 08:11:10 发布

您现在位置:Python中文网/ 问答频道 /正文

我想使用nvidia docker和容器,所有容器都独立运行一些深度学习代码,因此我需要在加载到gpu内存后在所有容器之间共享模型推理,以减少内存使用

所以可能的问题是:我能在gpu内存中加载模型后在容器之间共享模型推理吗(我使用tensorflow、tensorrt、keras)

使用容器和不使用容器可以获得相同的执行时间推断吗? 如何在集装箱之间共享装载后的推理模型


Tags: 内存docker代码模型gpu集装箱tensorflow时间