• tensorflow 指定使用gpu处理,tensorflow占用多个GPU但只有一个在跑


         我们在刚使用tensorflow的过程中,会遇到这个问题,通常我们有多个gpu,但是

    在通过nvidia-smi查看的时候,一般多个gpu的资源都被占满,但是只有一个gpu的GPU-Util

    和 219W / 250W(Usage/Cap)会被占满。实际上我们只有一个在跑,但是我们其实只需要

    一个卡,其他卡要跑其他的资源,这是后怎么办呢。

    可以在环境中就指定gpu机器可见:

    如:

    import os

    os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID"

    os.environ["CUDA_VISIBLE_DEVICES"] = "3"  (其实,我有4张泰坦,但是我一般用第三张卡,因为四张卡

    放在一起挤的不行,第四张卡扇热好,且,我可以用多张卡,跑多个不同模型)

    但是我想多个卡配合嫩?

    import os

    os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID"

    os.environ["CUDA_VISIBLE_DEVICES"] = "0,2,3"  ,这样就指定了第1,3,4,张卡可见了

  • 相关阅读:
    停止与暂停线程
    flume日志收集框架
    mysql数据库索引
    junit
    freemarker
    python脚本
    java多线程编程核心技术学习-1
    spring 网站
    [MongoDB]学习笔记--Linux 安装和运行MongoDB
    [Spring MVC]学习笔记--form表单标签的使用
  • 原文地址:https://www.cnblogs.com/YouXiangLiThon/p/7545122.html
Copyright © 2020-2023  润新知