news 2026/4/15 18:04:06

与学习相关的技巧(超参数的验证)

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
与学习相关的技巧(超参数的验证)

超参数的验证

神经网络中,除了权重和偏置等参数,超参数(hyper-parameter)也经
常出现。这里所说的超参数是指,比如各层的神经元数量、batch 大小、参
数更新时的学习率或权值衰减等。如果这些超参数没有设置合适的值,模型
的性能就会很差。虽然超参数的取值非常重要,但是在决定超参数的过程中
一般会伴随很多的试错。本节将介绍尽可能高效地寻找超参数的值的方法。

验证数据

之前我们使用的数据集分成了训练数据和测试数据,训练数据用于学习,
测试数据用于评估泛化能力。由此,就可以评估是否只过度拟合了训练数据
(是否发生了过拟合),以及泛化能力如何等。

下面我们要对超参数设置各种各样的值以进行验证。这里要注意的是,
不能使用测试数据评估超参数的性能。这一点非常重要,但也容易被忽视。

为什么不能用测试数据评估超参数的性能呢?这是因为如果使用测试数
据调整超参数,超参数的值会对测试数据发生过拟合。换句话说,用测试数
据确认超参数的值的“好坏”,就会导致超参数的值被调整为只拟合测试数据。
这样的话,可能就会得到不能拟合其他数据、泛化能力低的模型。

因此,调整超参数时,必须使用超参数专用的确认数据。用于调整超参
数的数据,一般称为验证数据(validation data)。我们使用这个验证数据来
评估超参数的好坏。

训练数据用于参数(权重和偏置)的学习,验证数据用于超参数的性
能评估。为了确认泛化能力,要在最后使用(比较理想的是只用一次)
测试数据。

根据不同的数据集,有的会事先分成训练数据、验证数据、测试数据三
部分,有的只分成训练数据和测试数据两部分,有的则不进行分割。在这种
情况下,用户需要自行进行分割。如果是MNIST数据集,获得验证数据的
最简单的方法就是从训练数据中事先分割20%作为验证数据,代码如下所示。

(x_train,t_train),(x_test,t_test)=load_mnist()# 打乱训练数据x_train,t_train=shuffle_dataset(x_train,t_train)# 分割验证数据validation_rate=0.20validation_num=int(x_train.shape[0]*validation_rate)x_val=x_train[:validation_num]t_val=t_train[:validation_num]x_train=x_train[validation_num:]t_train=t_train[validation_num:]

这里,分割训练数据前,先打乱了输入数据和教师标签。这是因为数据
集的数据可能存在偏向(比如,数据从“0”到“10”按顺序排列等)。这里使
用的shuffle_dataset函数利用了np.random.shuffle,在common/util.py中有
它的实现。

接下来,我们使用验证数据观察超参数的最优化方法。

超参数的最优化

进行超参数的最优化时,逐渐缩小超参数的“好值”的存在范围非常重要。
所谓逐渐缩小范围,是指一开始先大致设定一个范围,从这个范围中随机选
出一个超参数(采样),用这个采样到的值进行识别精度的评估;然后,多次
重复该操作,观察识别精度的结果,根据这个结果缩小超参数的“好值”的范围。
通过重复这一操作,就可以逐渐确定超参数的合适范围。

超参数的范围只要“大致地指定”就可以了。所谓“大致地指定”,是指
像0.001(10−310^{−3}103)到1000(10310^3103)这样,以“10 的阶乘”的尺度指定范围(也表述
为“用对数尺度(log scale)指定”)。

在超参数的最优化中,要注意的是深度学习需要很长时间(比如,几天
或几周)。因此,在超参数的搜索中,需要尽早放弃那些不符合逻辑的超参数。
于是,在超参数的最优化中,减少学习的epoch,缩短一次评估所需的时间
是一个不错的办法。

以上就是超参数的最优化的内容,简单归纳一下,如下所示。

步骤0

设定超参数的范围。

步骤1

从设定的超参数范围中随机采样。

步骤2

使用步骤1 中采样到的超参数的值进行学习,通过验证数据评估识别精
度(但是要将epoch 设置得很小)。

步骤3

重复步骤1 和步骤2(100 次等),根据它们的识别精度的结果,缩小超参
数的范围。

反复进行上述操作,不断缩小超参数的范围,在缩小到一定程度时,从
该范围中选出一个超参数的值。这就是进行超参数的最优化的一种方法。

反复进行上述操作,不断缩小超参数的范围,在缩小到一定程度时,从
该范围中选出一个超参数的值。这就是进行超参数的最优化的一种方法。

超参数最优化的实现

如前所述,通过从0.001(10−310^−3103)到1000(10310^3103)这样的对数尺度的范围
中随机采样进行超参数的验证。这在Python 中可以写成10 ** np.random.
uniform(-3, 3)。在该实验中,权值衰减系数的初始范围为10−810^{−8}10810−410^{−4}104,学
习率的初始范围为10−610^−610610−210^−2102。此时,超参数的随机采样的代码如下所示。

weight_decay=10**np.random.uniform(-8,-4)lr=10**np.random.uniform(-6,-2)

像这样进行随机采样后,再使用那些值进行学习。之后,多次使用各种
超参数的值重复进行学习,观察合乎逻辑的超参数在哪里。这里省略了具体
实现,只列出了结果。进行超参数最优化的源代码在ch06/hyperparameter_
optimization.py中,请大家自由参考。

下面我们就以权值衰减系数为10−810^{−8}10810−410^{−4}104、学习率为$10^{−6} $到10−210^{−2}102的范围
进行实验,结果如图6-24 所示。

图6-24 中,按识别精度从高到低的顺序排列了验证数据的学习的变化。
从图中可知,直到“Best-5”左右,学习进行得都很顺利。因此,我们来
观察一下“Best-5”之前的超参数的值(学习率和权值衰减系数),结果如下
所示。

Best-1(val acc:0.83)|lr:0.0092,weight decay:3.86e-07Best-2(val acc:0.78)|lr:0.00956,weight decay:6.04e-07Best-3(val acc:0.77)|lr:0.00571,weight decay:1.27e-06Best-4(val acc:0.74)|lr:0.00626,weight decay:1.43e-05Best-5(val acc:0.73)|lr:0.0052,weight decay:8.97e-06

从这个结果可以看出,学习率在0.001 到0.01、权值衰减系数在10−810^{−8}108
10−610^{−6}106之间时,学习可以顺利进行。像这样,观察可以使学习顺利进行的超参
数的范围,从而缩小值的范围。然后,在这个缩小的范围中重复相同的操作。

这样就能缩小到合适的超参数的存在范围,然后在某个阶段,选择一个最终
的超参数的值。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/8 7:51:03

西门子200smart运动控制四轴搬运取料机(设计源文件+万字报告+讲解)(支持资料、图片参考_相关定制)_文章底部可以扫码

西门子200smart运动控制四轴搬运取料机(设计源文件万字报告讲解)(支持资料、图片参考_相关定制)_文章底部可以扫码该程序为两台smart plc通过通讯控制四轴伺服电机的搬运取料机案例工程案例程序。 商品包含200smar_PLC程序项目电气接线图程序流程说明触…

作者头像 李华
网站建设 2026/4/11 23:50:11

2026大模型平台漏洞全景报告:攻防新格局下的风险纵深与防御体系

2026年,大语言模型(LLM)技术正从单一文本交互向自主智能体协同、全模态融合、长期记忆落地的新阶段高速演进,攻击面随技术能力同步拓宽,漏洞类型从传统的提示注入、数据泄露,升级为智能体劫持、多模态隐形注…

作者头像 李华
网站建设 2026/4/10 21:11:05

比MySQL快800倍的数据库:ClickHouse的性能秘密

前言 当传统数据库在处理亿级数据查询时陷入性能瓶颈,一家俄罗斯互联网巨头却默默开发出了一款能比Vertica快5倍、比MySQL快800倍的分析型数据库。 “每天处理超过1000亿条记录,支持近400台服务器集群,历史总记录超过13万亿条。”这是ClickHo…

作者头像 李华
网站建设 2026/4/13 21:24:30

收藏级|大模型入门到就业完整转型攻略,小白/程序员必看

本文详细拆解了零基础进入大模型领域的全流程转型路径,清晰梳理四大核心发展方向(开发、应用、研究、工程),手把手指导掌握编程与数学基础、吃透Transformer架构与预训练技术,搭配可直接上手的实践项目、开源社区玩法、…

作者头像 李华
网站建设 2026/3/31 7:47:12

这次终于选对了!8个降AI率平台测评:专科生必看的降AI率工具推荐

在当前学术写作日益依赖AI工具的背景下,论文降AIGC率、去除AI痕迹、降低查重率已成为专科生们必须面对的挑战。随着高校对AI生成内容的检测标准不断提高,单纯依靠AI写作已经无法满足论文质量要求。这时候,专业的AI降重工具就显得尤为重要。这…

作者头像 李华