简洁易懂的博客总结
来自博客专栏:https://blog.csdn.net/dss_dssssd/column/info/29714
pytorch系列-----1 python class 中 的__call__方法
https://blog.csdn.net/dss_dssssd/article/details/83750838
pytorch系列------2 tensor基础
https://blog.csdn.net/dss_dssssd/article/details/83753069
pytorch系列 --3 Variable,Tensor 和 Gradient
https://blog.csdn.net/dss_dssssd/article/details/83784080
pytorch系列 --4 pytorch 0.4改动后Variable和Tensor合并问题data和.detach
https://blog.csdn.net/dss_dssssd/article/details/83818181
pytorch系列 ---5以 linear_regression为例讲解神经网络实现基本步骤以及解读nn.Linear函数
https://blog.csdn.net/dss_dssssd/article/details/83892824
pytorch系列 ----暂时就叫5的番外吧: nn.Modlue及nn.Linear 源码理解
https://blog.csdn.net/dss_dssssd/article/details/82977170
pytorch系列6 -- activation_function 激活函数 relu, leakly_relu, tanh, sigmoid及其优缺点
https://blog.csdn.net/dss_dssssd/article/details/83927312
pytorch系列7 -----nn.Sequential讲解
https://blog.csdn.net/dss_dssssd/article/details/82980222
pytorch系列8 --self.modules() 和 self.children()的区别
https://blog.csdn.net/dss_dssssd/article/details/83958518
pytorch系列 -- 9 pytorch nn.init 中实现的初始化函数 uniform, normal, const, Xavier, He initialization
https://blog.csdn.net/dss_dssssd/article/details/83959474
pytorch系列 ---9的番外, Xavier和kaiming是如何fan_in和fan_out的,_calculate_fan_in_and_fan_out解读 Conv2d
https://blog.csdn.net/dss_dssssd/article/details/83992701
pytorch系列10 --- 如何自定义参数初始化方式 ,apply()
https://blog.csdn.net/dss_dssssd/article/details/83990511
pytorch系列 --11 pytorch loss function: MSELoss BCELoss CrossEntropyLoss及one_hot 格式求 cross_entropy
https://blog.csdn.net/dss_dssssd/article/details/84036913
pytorch系列12 --pytorch自定义损失函数custom loss function
https://blog.csdn.net/dss_dssssd/article/details/84103834