About 533,000 results
Open links in new tab
  1. PyTorch 中的反向传播函数(Backward function in PyTorch)

    在 PyTorch 中,反向传播函数是通过调用 backward() 方法来实现的。 这个方法被应用于计算图上的某个标量节点,通常是损失函数节点。

  2. Pytorch中的.backward ()方法 - 知乎

    Its .grad attribute won't be populated during autograd.backward (). If you indeed want the gradient for a non-leaf Tensor, use .retain_grad () on the non-leaf Tensor......

  3. Pytorch:backward ()函数详解 - CSDN博客

    Oct 30, 2025 · .backward () 是 PyTorch 中用于自动求导的函数,它的主要作用是计算损失函数对模型参数的梯度,从而实现反向传播算法。 在深度学习中,我们通常使用 梯度下降 算法来更 …

  4. PyTorch 中 backward () 详解-PyTorch 中文网

    Aug 16, 2017 · 经过不断地尝试,我终于发现了其中的奥秘, k.backward(parameters) 接受的参数 parameters 必须要和 k 的大小一模一样,然后作为 k 的系数传回去,什么意思呢,我们通过上 …

  5. PyTorch:梯度计算之反向传播函数backward ()-百度开发者中心

    Feb 16, 2024 · 在PyTorch中,反向传播函数backward ()用于计算梯度。 通过将损失函数(loss function)对模型参数的导数累积到参数的梯度中,可以实现模型的优化。 本文将介绍如何使 …

  6. PyTorch中的backward函数深度解析 - 姚伟斌

    May 13, 2025 · 今天,让我们一起深入探讨PyTorch中的backward函数,这个在深度学习中至关重要的组件。 无论你是刚刚接触深度学习,还是已经在这个领域有所建树,相信这篇文章都能 …

  7. 关于Pytorch中backward ()函数 - 知乎

    Dec 17, 2022 · 如果将 PyTorch 中的 tensor 属性 requires_grad 设置为 True,它将开始追踪 (track)在其上的所有操作(这样就可以利用链式法则进行梯度传播了)。 完成计算后,可以调 …

  8. PyTorch中的`backward ()`函数详解-百度开发者中心 - Baidu

    Jan 7, 2024 · 在 PyTorch 中, backward() 函数是实现自动微分的关键部分。 它允许我们计算一个张量(tensor)相对于其父张量(或称为输入张量)的梯度。

  9. Pytorch torch.Tensor.backward ()的工作原理|极客教程

    在调用torch.Tensor.backward ()方法时,Pytorch会自动计算张量的梯度,并将这些梯度存储在张量的.grad属性中。 Pytorch还提供了一种并行计算梯度的方法,可以显著加速梯度计算的过程。

  10. pytorch中backward ()函数详解 - CSDN博客

    Nov 6, 2025 · 本文围绕Pytorch中反向传播求导展开,介绍了backward函数及其参数。 指出在Pytorch实现反向传播时,因输出是否为标量,求导情况不同。