如何包装tensorflowgpu模型在大多数机器上运行?

2024-05-14 04:02:22 发布

您现在位置:Python中文网/ 问答频道 /正文

Tensorflow GPU版本、nvidia驱动程序版本、cudnn版本具有特殊的兼容性矩阵。这个兼容性矩阵在打包和分发tensorflow模型时产生了问题,当我传递tensorflow模型时,它可以由其他人运行而不受任何麻烦。基于容器的技术(例如docker)也会有问题,因为它不知道nvidia驱动程序的版本。我想知道是否有人知道最好的方式来包装tensorflow模型,它可以根据linux系统上的底层nvidia驱动程序自动配置。我怎样才能做到这一点


Tags: docker模型版本gpulinuxtensorflow系统方式