tensorflow 指定使用gpu处理,tensorflow占用多个GPU但只有一个在跑

     我们在刚使用tensorflow的过程中,会遇到这个问题,通常我们有多个gpu,但是

在通过nvidia-smi查看的时候,一般多个gpu的资源都被占满,但是只有一个gpu的GPU-Util

和 219W / 250W(Usage/Cap)会被占满。实际上我们只有一个在跑,但是我们其实只需要

一个卡,其他卡要跑其他的资源,这是后怎么办呢。

可以在环境中就指定gpu机器可见:

如:

import os

os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID"

os.environ["CUDA_VISIBLE_DEVICES"] = "3"  (其实,我有4张泰坦,但是我一般用第三张卡,因为四张卡

放在一起挤的不行,第四张卡扇热好,且,我可以用多张卡,跑多个不同模型)

但是我想多个卡配合嫩?

import os

os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID"

os.environ["CUDA_VISIBLE_DEVICES"] = "0,2,3"  ,这样就指定了第1,3,4,张卡可见了

原文地址:https://www.cnblogs.com/YouXiangLiThon/p/7545122.html