pytorch学习

简洁易懂的博客总结

来自博客专栏:https://blog.csdn.net/dss_dssssd/column/info/29714

pytorch系列-----1 python class 中 的__call__方法

https://blog.csdn.net/dss_dssssd/article/details/83750838

pytorch系列------2 tensor基础

https://blog.csdn.net/dss_dssssd/article/details/83753069

pytorch系列 --3 Variable,Tensor 和 Gradient

https://blog.csdn.net/dss_dssssd/article/details/83784080

pytorch系列 --4 pytorch 0.4改动后Variable和Tensor合并问题data和.detach

https://blog.csdn.net/dss_dssssd/article/details/83818181

pytorch系列 ---5以 linear_regression为例讲解神经网络实现基本步骤以及解读nn.Linear函数

https://blog.csdn.net/dss_dssssd/article/details/83892824

pytorch系列 ----暂时就叫5的番外吧: nn.Modlue及nn.Linear 源码理解

https://blog.csdn.net/dss_dssssd/article/details/82977170

pytorch系列6 -- activation_function 激活函数 relu, leakly_relu, tanh, sigmoid及其优缺点

https://blog.csdn.net/dss_dssssd/article/details/83927312

pytorch系列7 -----nn.Sequential讲解

https://blog.csdn.net/dss_dssssd/article/details/82980222

pytorch系列8 --self.modules() 和 self.children()的区别

https://blog.csdn.net/dss_dssssd/article/details/83958518

pytorch系列 -- 9 pytorch nn.init 中实现的初始化函数 uniform, normal, const, Xavier, He initialization

https://blog.csdn.net/dss_dssssd/article/details/83959474

pytorch系列 ---9的番外, Xavier和kaiming是如何fan_in和fan_out的,_calculate_fan_in_and_fan_out解读 Conv2d

https://blog.csdn.net/dss_dssssd/article/details/83992701

pytorch系列10 --- 如何自定义参数初始化方式 ,apply()

https://blog.csdn.net/dss_dssssd/article/details/83990511

pytorch系列 --11 pytorch loss function: MSELoss BCELoss CrossEntropyLoss及one_hot 格式求 cross_entropy

https://blog.csdn.net/dss_dssssd/article/details/84036913

pytorch系列12 --pytorch自定义损失函数custom loss function

https://blog.csdn.net/dss_dssssd/article/details/84103834

pytorch系列13 ---优化算法optim类

https://blog.csdn.net/dss_dssssd/article/details/84671689

原文地址:https://www.cnblogs.com/jiangkejie/p/13037413.html