news 2026/4/19 14:26:38

PyTorch构建模型训练四部曲

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
PyTorch构建模型训练四部曲

下面以线性模型为例,阐述一下构建模型训练的主要步骤。

步骤:

  1. 数据准备

  2. 构建模型

  3. 构建损失函数和优化器

  4. 训练周期(前馈(计算损失)、反馈(计算梯度)、更新权重)

1 数据准备

有两种方式加载数据,第一种是把所有数据都加载到init里面,也就是读取到内存里面,然后每次使用getitem时,返回对应的项,这种方法适用于数据量不大的情况,如果是图像数据集,则需要采用别的方式,比如利用Dataset和DataLoader。

import torch from torch.utils.data import Dataset from torch.utils.data import DataLoader class DiabetesDataset(Dataset):#继承Dataset这个抽象类 def __init__(self): pass def __getitem__(self,index):#实现这个方法,可以支持下标操作 pass def __len__(self):#实现这个方法,可以返回数据集的数量 pass dataset = DiabetesDataset() train_loader = DataLoader(dataset=dataset,batch_size=32,shuffle=True,num_workers=2)

DataLoader最常见设置的四个参数:

  • 数据集对象

  • batch-size的大小

  • shuffle是否要打乱数据集

  • num_workers读取的数据时是否要使用多线程,要使用几个多线程

如果在windows中设置num_workers可能会出现运行时的错误,解决的方法是将使用loder迭代的代码封装起来(例如使用函数封装起来,而不是直接暴露在外)(pytorch0.4会有这样的问题高版本未知)

2 构建模型

使用pytorch重点不是各种求导运算,重点时构造计算图。

z=wx+b

在训练时,x和z是已知的,权重w和偏置b是我们要求的,因为我们不能确定w和b张量的形状,所以它的形状是通过z和x来确定的。

比如z是3x1的张量,x是4x1的张量,那我们就可以知道w是3x4的张量,b是3x1的张量

class LinearModel(torch.nn.Module): def __init__(self): super(LinearModel,self).__init__()#调用父类的构造函数 self.linear = torch.nn.Linear(1,1)#构造对象,它自动帮我们构造权重和偏置 def forward(self,x):#这个名称是固定的,前向传播必须这么写 y_pred = self.linear(x) return y_pred model = LinearModel()#模型实例化

3 构建损失函数和优化器

PyTorch提供了很多损失函数和优化器,可以根据模型和需要自行选择。

cirterion = torch.nn.MSELoss(size_average = False)#损失函数,第一个参数是是否要求均值 optimizer = torch.optim.SGD(model.parameters(), lr=0.01)#优化器,第一个参数是找到模型的所有参数,第二个参数是设置学习率

4 写训练周期

训练周期的格式也是固定的,先将数据添加到我们构建的模型,然后计算损失(前馈过程),然后清零梯度,然后进行反向传播,更新权重(反馈和更新都是直接调用内置函数的)。

如果不使用mini-batch,那么可以直接写:

for epoch in range(100): y_pred = model(x_data)#将数据加到模型,计算模型的y loss = cirterion(y_pred,y_data)#计算损失 print(epoch,loss) optimizer.zero_grad()#清零梯度 loss.backward()#反向传播 optimizer.step()#更新权重

如果使用mini-batch,训练周期使用嵌套循环:

for epoch in range(100): for i,data in enumerate(train_loader,0): inputs, labels = data#会自动转换为张量 y_pred = model(inputs)#前馈 loss = criterion(y_pred,labels) print(epoch,i,loss.item()) optimizer.zero_grad()#反向传播 loss.backward() optimizer.step()#更新

大部分模型训练的步骤就是以上四步,就算是多层模型,需要大规模修改的地方其实就是模型构造,训练周期也可根据需要修改,但是基本步骤是不变的(前馈计算损失,反馈更新权重)。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/18 6:34:46

BlenderMCP:AI驱动的3D建模革命,让复杂操作变得简单

BlenderMCP:AI驱动的3D建模革命,让复杂操作变得简单 【免费下载链接】blender-mcp 项目地址: https://gitcode.com/GitHub_Trending/bl/blender-mcp 在3D建模领域,手动调整相机参数、处理镜头畸变往往是最耗时耗力的环节。现在&#…

作者头像 李华
网站建设 2026/4/15 10:22:14

基于微信小程序的校园水电费缴纳系统毕业设计源码

博主介绍:✌ 专注于Java,python,✌关注✌私信我✌具体的问题,我会尽力帮助你。一、研究目的本研究旨在设计并实现一款基于微信小程序的校园水电费缴纳系统,以解决传统校园水电费缴纳方式存在的诸多问题。具体研究目的如下: 首先&a…

作者头像 李华
网站建设 2026/4/19 13:45:58

广州Sohong AI,办公落地进行时!

传统认知中,企业规模与响应速度常呈反比。Sohong AI办公软件正在改写这一规则。Sohong AI智慧办公正通过部署AI数字员工,构建了“人类创意官数字执行团”的混合团队。当设计师完成核心创意后,Sohong AI系统可自动将其转化为多语言视频脚本&am…

作者头像 李华
网站建设 2026/4/9 11:26:04

如何让AI输出结构化数据:eino框架的终极解析指南

引言:告别混乱,拥抱结构化AI输出 【免费下载链接】eino Go 语言编写的终极大型语言模型(LLM)应用开发框架,强调简洁性、可扩展性、可靠性与有效性。 项目地址: https://gitcode.com/CloudWeGo/eino 在AI应用开发…

作者头像 李华
网站建设 2026/4/19 10:08:03

ComfyUI节点版本控制系统:回滚与历史记录

ComfyUI节点版本控制系统:回滚与历史记录 在AI生成内容的开发实践中,一个常见的场景是这样的:你花了整整两个小时搭建了一个复杂的ComfyUI工作流——融合了ControlNet控制、LoRA风格注入和多阶段采样策略,终于生成出一张理想图像。…

作者头像 李华
网站建设 2026/4/18 13:10:08

基于WSN无线传感网络的智能推窗器设计与实现(论文+源码)

1 总体方案设计本设计基于WSN无线传感网络的智能推窗器的整体架构如图2.1所示,包括终端节点、协调器、手机APP三个部分,其各个部分功能如下:终端节点:以CC2530单片机为控制核心,结合风速传感器、MQ-2烟雾传感器、雨量…

作者头像 李华