注意:所有文章结合读,不要只读一篇文章!!!!
一:张量的学习
(一)基础数据结构--张量
https://blog.csdn.net/oldmao_2001/article/details/102534415
https://blog.csdn.net/oldmao_2001/article/details/102546607
(二)张量学习(含代码)
https://blog.zhangxiann.com/202002052039/
https://blog.zhangxiann.com/202002082037/
(三)计算图机制
https://blog.zhangxiann.com/202002112035/
https://blog.csdn.net/oldmao_2001/article/details/102546607
(四)autograd 与逻辑回归
https://blog.zhangxiann.com/202002152033/
https://blog.csdn.net/oldmao_2001/article/details/102638970
(五)补充
1.pytorch中的.detach和.data深入详解
相同点:
tensor.data和tensor.detach() 都是变量从图中分离,但而这都是“原位操作 inplace operation”。
不同点:
(1).data 是一个属性,二.detach()是一个方法; (2).data 是不安全的,.detach()是安全的。