• 张量与数组运算报错(Use Tensor.cpu() to copy the tensor to host memory first;RuntimeError: Expected all tensors to be on the same device)


    结论:1.张量与数组运算,张量必须在cpu上,产生结果为cpu上的张量,可继续与数组运算(张量必须在gpu上)

       2.张量与张量运算,cpu上的张量与gpu上的张量是无法运行的,必须在相同的gpu上或cpu上,猜想不同型号的gpu因该也不行。

    一.张量与数组运算,前提张量必须在cpu上(如果张量在gpu上,则会报错(我认为数组本身在cpu上,因此2个操作在cpu上,就可以默认运行)),运算结果将会转到cpu上,具体操作如下:

    注:报错代码 TypeError: can't convert cuda:0 device type tensor to numpy. Use Tensor.cpu() to copy the tensor to host memory first.

    代码如下:

    b=np.array(9) # numpy 数组
    a = torch.ones((2, 2)) # 张量
    print('a in device :',a.device)
    c=a*b # 数组与张量运算,其中张量在cpu上
    print('c in device:{};value{}'.format(c.device,c))



    结果如图:

     报错结果:

    继续探讨张量与数组运算:

    b=np.array(9) # numpy 数组
    a = torch.ones((2,2)) # 张量
    print('a in device :',a.device)
    c=a*b # 数组与张量运算,其中张量在cpu上
    print('c in device:{};value:{}'.format(c.device,c))
    d=np.array(8)
    e=c*d # 继续验证数组与产生的张量运算
    print('e in device:{};value:{}'.format(e.device, e))

    结果如图:

     二.张量与张量运算,若在不同设备会报错,RuntimeError: Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cpu!,结论很清楚,而具体过程如下:

      代码如下:

    b=torch.ones((2,2)) # numpy 数组
    b=b.cpu()
    a = torch.ones((2,2)) # 张量
    a=a.cuda()
    print('a in device :{};b in device :{}'.format(a.device,b.device))
    c=a*b # 数组与张量运算,其中张量在cpu上
    print('c in device:{};value:{}'.format(c.device,c))

    结果如下:

    处理算法通用的辅助的code,如读取txt文件,读取xml文件,将xml文件转换成txt文件,读取json文件等
  • 相关阅读:
    uniapp 微信小程序
    vue3获取当前路由
    常用网址
    (转)maven引入本地jar包的方法
    转:maven打包加时间戳方法总结
    Vue封装一个仿淘宝分页组件
    使用GitHub Actions自动构建DockerHub镜像
    luminati代理快速使用教程
    Redis Cluster 部署、在线扩容、缩容、迁移、集群管理实践
    Docker安装RabbitMQ以及无权限访问 vhost '/' 的解决方法
  • 原文地址:https://www.cnblogs.com/tangjunjun/p/14541097.html
Copyright © 2020-2023  润新知