公司或者实验室当大家都共用一台服务器时,训练模型的时候如果不指定GPU,往往会冲突。
我们可以先用
nvidia-smi
查看有多少块GPU,
然后分两种方式指定GPU运行。
1、直接在终端运行时加入相关语句实现指定GPU的使用
CUDA_VISIBLE_DEVICES=0 python test.py # 表示运行test.py文件时,使用编号为0的GPU卡 CUDA_VISIBLE_DEVICES=0,2 python test.py # 表示运行test.py文件时,使用编号为0和2的GPU卡
2、在Python程序中添加
import os # 使用第一张与第三张GPU卡 os.environ["CUDA_VISIBLE_DEVICES"] = "0, 2"