自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 Pytorch官方教程学习笔记6:完整训练一个模型

您今天需要运行的代码:分两个文件,一个文件用于训练模型,另一个用于加载模型和使用模型,注意两个模型需要在同一目录下。

2024-11-05 17:50:37 480

原创 Pytorch官方教程学习笔记5:优化模型参数

现在我们已经有了模型和数据,接下来就该通过优化模型的参数来对数据进行训练、验证和测试。训练模型是一个迭代的过程;在每次迭代中,模型会对输出进行猜测,计算该猜测的误差(损失),收集误差相对于其参数的导数(如前一节所示),然后使用梯度下降来优化这些参数。我们将加载前面章节中关于数据集和数据加载器(Datasets & DataLoaders)以及模型构建(Build Model)的代码。由于前文中以及详细讲解了该段代码,这里便不再赘述。超参数超参数是可以调整的参数,用于控制模型的优化过程。不同的超参数

2024-11-05 17:12:18 1412

原创 Pytorch官方教程学习笔记4:基于torch.autograd的自动微分

在训练神经网络时,最常用的算法是反向传播。在该算法中,参数(即模型的权重)会根据损失函数相对于给定参数的梯度进行调整。为了计算这些梯度,PyTorch 内置了一个称为 的微分引擎。它支持对任意计算图的梯度进行自动计算。考虑一个最简单的单层神经网络,包含输入 ,参数 和 ,以及某个损失函数。可以使用 PyTorch 以如下方式定义:张量、函数和计算图此代码的计算过程可以由以下计算图表示:图1 计算图其中,计算得到的z为y的估计量,通过二元交叉熵函数计算了z与y的差距,得到了损失。在这个网络中,

2024-11-04 23:31:07 1561

原创 Pytorch官方教程学习笔记3:搭建一个神经网络

我们通过继承nn.Module来定义神经网络,并在__init__方法中初始化神经网络的层。每个nn.Module子类都在forward方法中实现对输入数据的操作。super().__init__() # 调用父类 nn.Module 的构造函数self.flatten = nn.Flatten() # 定义一个将输入展平(从二维28x28转为一维784)的层# 定义一个顺序容器,包含一系列线性层和ReLU激活函数。

2024-11-03 21:24:42 1903

原创 Pytorch官方教程学习笔记2:数据集与数据加载器

用于处理数据样本的代码可能会变得混乱且难以维护。理想情况下,我们希望将数据集代码与模型训练代码解耦,以提高可读性和模块化程度。和,它们允许您使用预加载的数据集以及自定义的数据。Dataset存储样本及其对应的标签,而DataLoader则为Dataset提供了一个可迭代对象,方便访问样本数据。PyTorch 的领域库提供了许多预加载的数据集(如 FashionMNIST),这些数据集继承自,并实现了特定数据的函数。它们可以用于快速构建和评估您的模型。

2024-11-03 15:29:16 733

原创 Pytorch官方教程学习笔记1:张量

张量是一种专门的数据结构,与数组和矩阵非常相似。在 PyTorch 中,我们使用张量来编码模型的输入和输出,以及模型的参数。张量与 NumPy 的 ndarrays 类似,但张量可以在 GPU 或其他硬件加速器上运行。事实上,张量和 NumPy 数组通常可以共享相同的底层内存,从而消除了复制数据的需要,还针对自动微分进行了优化。上述代码为所需引用头文件。

2024-11-02 22:54:50 256 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除