news 2026/2/17 3:02:37

机器学习 —— 过拟合

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
机器学习 —— 过拟合

摘要:机器学习中的过拟合是指模型过度拟合训练数据中的噪声而非潜在规律,导致在新数据上表现不佳。常见于复杂模型(如深度神经网络),其成因包括模型复杂度过高、训练数据不足或缺乏代表性、缺少正则化等。防止过拟合的技术包括交叉验证、早停法、正则化和丢弃法。示例代码展示了如何在Keras中实现早停法和L2正则化来防止过拟合,通过监控验证损失和添加权重惩罚项,有效提升模型的泛化能力。

目录

机器学习 —— 过拟合

过拟合的成因

防止过拟合的技术

示例

代码说明

输出结果


机器学习 —— 过拟合

过拟合是指模型学习到训练数据中的噪声,而非数据背后的潜在规律。这会导致模型在训练数据上表现优异,但在新数据上表现糟糕。本质上,模型对训练数据过度特化,无法泛化到新场景。

过拟合在使用复杂模型(如深度神经网络)时尤为常见。这类模型参数众多,能与训练数据高度贴合,但往往会牺牲泛化能力。

过拟合的成因

导致过拟合的因素主要有以下几点:

  • 模型复杂度过高:如前所述,复杂模型比简单模型更易过拟合,因其参数更多,能更紧密地贴合训练数据。
  • 训练数据不足:当训练数据量有限时,模型难以学习到真正的潜在规律,反而可能习得数据中的噪声。
  • 训练数据缺乏代表性:若训练数据无法反映模型要解决的问题本质,模型可能学到无关模式,无法泛化到新数据。
  • 缺乏正则化:正则化是通过在损失函数中添加惩罚项来防止过拟合的技术,若缺少这一惩罚项,模型更易发生过拟合。

防止过拟合的技术

机器学习中常用的防过拟合技术包括:

  • 交叉验证(Cross-validation):通过将数据划分为多个子集,轮流用每个子集作为验证集、其余子集作为训练集,评估模型在未见过数据上的表现,确保模型的泛化能力。
  • 早停法(Early stopping):在模型训练完全收敛前停止训练,通过监控验证误差,当误差不再改善时终止训练,避免模型过度拟合。
  • 正则化(Regularization):在损失函数中添加惩罚项,促使模型采用更小的权重,避免拟合训练数据中的噪声。
  • 丢弃法(Dropout):适用于深度神经网络的技术,训练时随机 “丢弃” 部分神经元,迫使剩余神经元学习更稳健的特征,从而防止过拟合。

示例

以下是使用 Keras 实现早停法与 L2 正则化的 Python 代码:

from keras.models import Sequential from keras.layers import Dense from keras.callbacks import EarlyStopping from keras import regularizers # 定义模型架构 model = Sequential() # 第一层:64个神经元,ReLU激活函数,添加L2正则化(惩罚系数0.01) model.add(Dense(64, input_dim=X_train.shape[1], activation='relu', kernel_regularizer=regularizers.l2(0.01))) # 第二层:32个神经元,ReLU激活函数,添加L2正则化(惩罚系数0.01) model.add(Dense(32, activation='relu', kernel_regularizer=regularizers.l2(0.01))) # 输出层:1个神经元,Sigmoid激活函数(适用于二分类任务) model.add(Dense(1, activation='sigmoid')) # 编译模型:损失函数为二元交叉熵,优化器为Adam,评估指标为准确率 model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy']) # 设置早停回调:监控验证损失,连续5个epoch无改善则停止训练 early_stopping = EarlyStopping(monitor='val_loss', patience=5) # 训练模型:使用训练集,划分20%作为验证集,最大训练100个epoch,批次大小为64,启用早停回调 history = model.fit(X_train, y_train, validation_split=0.2, epochs=100, batch_size=64, callbacks=[early_stopping])

代码说明

代码中使用 Keras 的 Sequential 模型搭建网络架构,前两层通过kernel_regularizer参数添加 L2 正则化;借助EarlyStopping类设置早停回调,监控验证损失,若连续 5 个 epoch 无改善则终止训练。训练时划分 20% 数据作为验证集,批次大小设为 64,最大训练 100 个 epoch。

输出结果

运行代码后,将得到类似以下的输出(省略中间 epoch):

plaintext

Train on 323 samples, validate on 81 samples Epoch 1/100 323/323 [==============================] - 0s 792us/sample - loss: -8.9033 - accuracy: 0.0000e+00 - val_loss: -15.1467 - val_accuracy: 0.0000e+00 Epoch 2/100 323/323 [==============================] - 0s 46us/sample - loss: -20.4505 - accuracy: 0.0000e+00 - val_loss: -25.7619 - val_accuracy: 0.0000e+00 Epoch 3/100 323/323 [==============================] - 0s 43us/sample - loss: -31.9206 - accuracy: 0.0000e+00 - val_loss: -36.8155 - val_accuracy: 0.0000e+00 ...(持续输出直至训练停止)

通过结合早停法与 L2 正则化,可有效防止模型过拟合,提升其泛化性能。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/12 7:41:08

开题报告vb酒店客房部

目录 酒店客房部概述主要职能与工作内容技术应用与管理服务质量标准 项目技术支持可定制开发之功能亮点源码获取详细视频演示 :文章底部获取博主联系方式!同行可合作 酒店客房部概述 酒店客房部是酒店运营的核心部门之一,主要负责客房清洁、…

作者头像 李华
网站建设 2026/2/16 14:00:50

一文讲透 LLM、RAG、MCP 与 AI Agent:AI 系统的四个核心层级

一文讲透 LLM、RAG、MCP 与 AI Agent:AI 系统的四个核心层级 这四个概念确实是当前AI领域最核心且容易混淆的技术层级。简单来说,它们代表了从“基础模型”到“智能体系统”的四个不同层次: 一个核心比喻: 想象一个顶尖的人类专家(LLM),他需要去完成一项复杂任务(如制…

作者头像 李华
网站建设 2026/2/12 5:24:55

毕设题目-贾明(网上答疑辅导系统

目录网上答疑辅导系统概述系统核心功能技术实现方案系统特色与创新点应用前景与扩展方向项目技术支持可定制开发之功能亮点源码获取详细视频演示 :文章底部获取博主联系方式!同行可合作网上答疑辅导系统概述 网上答疑辅导系统是一种基于互联网的教育辅助…

作者头像 李华
网站建设 2026/2/17 6:24:39

Linux:分包上传文件

目录分包合并解压分包 推荐使用360压缩 合并 cat xxx.zip.* > xxx.zip解压 unzip xxx.zip

作者头像 李华
网站建设 2026/2/12 8:01:21

C 环境设置

C 环境设置 引言 C语言作为一种历史悠久且应用广泛的编程语言,在系统编程、嵌入式开发等领域有着举足轻重的地位。在进行C语言编程之前,必须正确设置C语言开发环境。本文将详细介绍C语言环境的设置,包括开发工具的选择、编译器的安装、环境变量的配置等内容。 开发工具选…

作者头像 李华