趋近智
requires_grad)backward()).grad)torch.nn 搭建模型torch.nn.Module 基类torch.nn 损失)torch.optim)torch.utils.data.Datasettorchvision.transforms)torch.utils.data.DataLoader3.1 自动微分的原理
3.2 PyTorch 计算图
3.3 张量与梯度计算 (`requires_grad`)
3.4 执行反向传播 (`backward()`)
3.5 访问梯度(`.grad`)
3.6 禁用梯度追踪
3.7 梯度累积
3.8 动手实践:Autograd 运用
© 2025 ApX Machine Learning用心打造