PyTorch 源码解读系列
大家好,这是一篇预告文。
OpenMMLab 团队内部最近开始了 PyTorch 源码解读分享。每位同学解读的内容都会整理成技术文案,在这个新专栏分享出来,希望也能对大家有所帮助~
暂定的模块如下,首批分享中我们将主要对 Python 源码进行解读,也会涉及到少量的 c++ 接口。计划按照顺序进行周更:torch.autograd 文@ 000255BN&SyncBN 文@205120torch.utils.data 文@233233torch.nn.Module 文@000002DP&DDPtorch.optimtorch.cuda.amptorch.utils.cpp_extension torch.jit torch.nn.utils.prune torch.quantization torch.serialization&torch.hub
除了以上列出的模块,大家如果有希望新增的模块可以多多评论留言或私信。我们也非常非常非常欢迎大家参与进这个系列的技术文档编写,让优秀的技术文案疯狂砸向这个专栏吧(有意向的同学可以私戳小编获取具体步骤。将会有专业责编跟进修改,质检通过后将获取 OpenMMLab 专属标识进行发表)
最后,如果没有这个系列的技术文档,个人简历也是非常欢迎的呐~ 除了文案,我们也招人(算法、工程、前后端、项目、产品、运营,全都要)。天青色等烟雨,我们在等你
快速链接:
OpenMMLab:PyTorch 源码解读系列
OpenMMLab:PyTorch 源码解读之 torch.autograd:梯度计算详解
OpenMMLab:PyTorch 源码解读之 BN & SyncBN:BN 与 多卡同步 BN 详解
OpenMMLab:PyTorch 源码解读之 torch.utils.data:解析数据处理全流程
OpenMMLab:PyTorch 源码解读之 nn.Module:核心网络模块接口详解
OpenMMLab:PyTorch 源码解读之 DP & DDP:模型并行和分布式训练解析
OpenMMLab:PyTorch 源码解读之 torch.optim:优化算法接口详解
OpenMMLab:PyTorch 源码解读之 torch.cuda.amp: 自动混合精度详解
OpenMMLab:PyTorch 源码解读之 cpp_extension:揭秘 C++/CUDA 算子实现和调用全流程