我已经在我的ubuntu 16.04中安装了tensorflow,使用的是ubuntu内置apt cuda安装的第二个答案here。
现在我的问题是如何测试tensorflow是否真的在使用gpu?我有一台gtx 960m gpu。当我import tensorflow
这是输出
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcublas.so locally
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcudnn.so locally
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcufft.so locally
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcuda.so.1 locally
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcurand.so locally
这个输出是否足以检查tensorflow是否正在使用gpu?
除了使用
sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))
(在其他答案中以及在官方的TensorFlowdocumentation中概述)之外,您还可以尝试将计算分配给gpu并查看是否有错误。这里
如果你有一个gpu并且可以使用它,你会看到结果。否则您将看到长stacktrace的错误。最后你会得到这样的东西:
最近在TF中出现了一些有用的功能:
您还可以检查会话中的可用设备:
devices
将返回如下内容下面的代码将为您提供tensorflow可用的所有设备。
不,我认为“open CUDA library”不足以说明问题,因为图中的不同节点可能在不同的设备上。
要查找使用的设备,可以启用日志设备放置,如下所示:
检查您的控制台是否有这种类型的输出。
相关问题 更多 >
编程相关推荐