news 2026/4/16 11:49:01

YOLO26学生课堂行为检测:6类行为mAP达0.905,使用手机与趴桌识别最准

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
YOLO26学生课堂行为检测:6类行为mAP达0.905,使用手机与趴桌识别最准

摘要

学生课堂行为检测是智能教育监控系统中的关键任务,对于教学质量评估、学生注意力分析和课堂管理具有重要意义。本研究基于YOLO26目标检测算法,构建了一个包含6类常见课堂行为(举手、阅读、写字、使用手机、低头、趴桌)的检测系统。实验数据集包含训练集1422张图像、验证集203张图像和测试集407张图像。

实验结果表明,该系统在IoU=0.5阈值下的平均精度(mAP@0.5)达到0.905,其中“使用手机”和“趴桌”两类行为的F1分数接近0.97,表现最为优异。混淆矩阵分析显示,“阅读”和“写字”两类行为存在一定混淆,而“举手”行为有35%的概率被误识别为背景,表明该类别的特征提取仍有改进空间。本研究验证了YOLO26在学生课堂行为检测任务中的有效性,为后续智能课堂监控系统的开发提供了参考。

目录

摘要

详细功能展示视频

功能模块

1、用户管理模块

2、界面与交互模块

3、检测源管理模块

4、检测参数配置模块

5、YOLO检测核心模块

6、结果显示模块

7、结果保存模块

8、工具栏功能

9、辅助功能

10、数据校验模块

引言

背景

数据集介绍

数据集规模

类别定义

训练结果

Ultralytics YOLO26

概述

主要功能

常用标注工具

详细功能展示视频


功能模块

用户登录注册:支持密码检测,密码加密。

注册

登录

图片检测:可对图片进行检测,返回检测框及类别信息。

支持选择检测目标:可以选择一个或者多个类目的目标进行检测

参数实时调节(置信度和IoU阈值)

视频检测:支持视频文件输入,检测视频中每一帧的情况。

摄像头实时检测:连接USB 摄像头,实现实时监测。

日志记录:日志标签页记录操作和错误信息,带时间戳

结果保存模块:支持图片/视频/摄像头检测结果保存

1、用户管理模块

功能描述
用户注册用户名、密码、确认密码、邮箱(选填)注册,密码SHA256加密存储
用户登录用户名密码验证,自动跳转主界面
用户数据存储JSON文件存储用户信息(密码加密、注册时间、邮箱)
登录状态主界面显示当前登录用户名

2、界面与交互模块

功能描述
玻璃效果界面半透明毛玻璃背景,圆角边框,现代化视觉风格
无边框窗口自定义标题栏,支持窗口拖动、最小化、最大化、关闭
响应式布局主窗口三栏布局(左侧控制区、中央显示区、右侧信息区)
状态栏显示设备信息、模型状态、当前用户、实时时间

3、检测源管理模块

功能描述
图片检测支持JPG/JPEG/PNG/BMP格式图片载入
视频检测支持MP4/AVI/MOV/MKV格式视频载入
摄像头检测实时调用摄像头(默认ID 0)进行检测
检测源切换下拉菜单切换三种检测模式,自动更新界面状态

4、检测参数配置模块

功能描述
置信度阈值滑动条调节(0-100%,步长1%),实时显示当前值
IoU阈值滑动条调节(0-100%,步长1%),实时显示当前值
类别选择动态生成检测类别复选框,支持全选/取消全选
参数同步参数实时同步到检测器核心

5、YOLO检测核心模块

功能描述
模型加载加载best.pt模型文件,自动检测GPU可用性,支持CPU/GPU切换
多模式检测图片检测、视频检测、摄像头实时检测
检测线程基于QThread的多线程处理,避免界面卡顿
检测结果返回目标类别、置信度、边界框坐标
FPS计算实时计算处理帧率
进度反馈视频处理进度条实时更新

6、结果显示模块

功能描述
实时画面中央区域显示检测结果图像(带标注框)
统计信息检测状态、目标数量、FPS、处理帧数实时更新
检测列表右侧列表显示当前帧所有检测到的目标(类别+置信度)
日志记录日志标签页记录操作和错误信息,带时间戳
占位显示未选择检测源时显示系统LOGO和提示文字

7、结果保存模块

功能描述
保存开关复选框控制是否保存检测结果
路径选择自定义保存路径,支持图片/视频格式自动识别
自动命名保存文件自动添加时间戳(detection_result_20240101_120000.jpg
视频保存支持检测结果视频录制(MP4格式)
手动保存工具栏保存按钮可随时保存当前画面
保存反馈保存成功弹窗提示,日志记录保存路径

8、工具栏功能

功能描述
图片按钮快速切换到图片检测模式并打开文件选择器
视频按钮快速切换到视频检测模式并打开文件选择器
摄像头按钮快速切换到摄像头检测模式
保存按钮手动保存当前显示画面

9、辅助功能

功能描述
错误处理统一错误弹窗提示,日志记录错误详情
资源清理检测停止时自动释放摄像头、视频文件、视频写入器资源
时间显示状态栏实时显示系统时间
模型状态状态栏显示模型加载状态和当前设备(CPU/GPU)

10、数据校验模块

功能描述
注册验证用户名长度≥3,密码长度≥6,密码一致性检查,邮箱格式验证
协议确认注册前需勾选同意用户协议
文件校验模型文件存在性检查,文件大小验证(≥6MB)
输入非空登录/注册时必填项非空检查

引言

随着人工智能技术在教育领域的深入应用,智能课堂监控系统逐渐成为研究热点。学生课堂行为检测作为其中的核心任务,能够自动识别学生在课堂上的各种行为表现,为教师提供教学反馈,帮助学生提高学习效率,同时也为教育管理者提供客观的教学质量评估依据。

传统的课堂行为观察主要依靠人工记录,这种方式不仅耗时耗力,而且受观察者主观因素影响较大,难以实现大规模、长时间的持续监测。近年来,随着计算机视觉技术的快速发展,特别是深度学习在目标检测领域的突破,使得自动化的课堂行为检测成为可能。YOLO系列算法因其检测速度快、精度高的特点,特别适合实时课堂监控场景的应用需求。

然而,课堂环境复杂多变,学生姿态多样,光照条件不一,加之行为类别间的相似性(如阅读和写字),给准确检测带来了挑战。本研究旨在通过构建一个基于YOLO26的学生课堂行为检测系统,探索该算法在实际课堂环境下的检测性能,分析各类行为的识别难点,为后续优化提供方向。

背景

学生课堂行为检测系统的研究与发展,源于教育信息化和智能化的深度融合。随着“智慧校园”、“智能教育”等概念的提出,如何利用先进技术手段提升教学质量、优化教学管理,已成为教育领域的重要课题。

从教育学的角度来看,学生在课堂上的行为表现直接反映了其学习状态和注意力水平。举手代表参与互动,阅读和写字体现学习投入,使用手机可能表示分心,低头和趴桌则往往暗示疲劳或注意力下降。对这些行为的实时监测和分析,可以帮助教师及时调整教学策略,提高课堂互动效果。同时,长期积累的行为数据也能为教育研究提供有价值的定量分析基础。

从技术发展的角度来看,课堂行为检测经历了从传统图像处理到深度学习的重要转变。早期的研究主要依赖于人工设计的特征,如方向梯度直方图(HOG)、局部二值模式(LBP)等,结合支持向量机(SVM)等分类器进行行为识别。这类方法在简单场景下有一定效果,但难以应对课堂环境的复杂性和多样性。

2012年以来,卷积神经网络(CNN)的兴起为图像识别带来了革命性变化。目标检测算法从R-CNN、Fast R-CNN发展到YOLO、SSD等单阶段检测器,检测速度和精度不断提升。特别是YOLO26作为YOLO系列的最新版本,在保持实时检测优势的同时,进一步提升了检测精度和小目标识别能力,非常适合课堂行为检测这类需要同时关注多个学生、多种行为的应用场景。

当前,课堂行为检测仍面临诸多挑战:学生姿态变化大、遮挡严重、光照不均、行为类别间相似度高、样本类别不平衡等。如何提高模型在复杂场景下的鲁棒性,如何更好地区分相似行为,如何处理类别不平衡问题,都是本研究需要重点关注的方向。

数据集介绍

数据集规模

本研究所使用的课堂行为数据集共包含2032张标注图像,按照约7:1:2的比例划分为训练集、验证集和测试集,具体分布如下:

  • 训练集:1422张图像

  • 验证集:203张图像

  • 测试集:407张图像

类别定义

数据集共包含6类学生课堂行为,分别为:

  • 举手(hand-raising):学生单臂或双臂举起,表示提问或回答问题

  • 阅读(reading):学生注视书本或阅读材料

  • 写字(writing):学生持笔在纸张或笔记本上书写

  • 使用手机(using phone):学生手持手机或低头注视手机屏幕

  • 低头(bowing the head):学生低头但不涉及手机使用,可能是在思考或疲劳

  • 趴桌(leaning over the table):学生头部趴在桌面上,通常表示疲劳或注意力分散

训练结果

1、总体性能评估

1.mAP@0.5 和 mAP@0.5:0.905
  • mAP@0.5 最高达到 0.97(见 BoxF1_curve),说明模型在IoU=0.5时表现非常好。

  • mAP@0.5:0.95 在训练后期达到 0.145(见 results.png),说明模型在更严格的IoU阈值下仍有不错的表现,但还有提升空间。

2.精度与召回率
  • 精度(Precision)召回率(Recall)在训练后期稳定在0.05左右(见 results.png),这可能是因为数据量较大或标签不平衡,导致指标偏低。

  • 但从BoxPR_curve.png看,所有类别的 Recall 都接近 1.0,说明模型能较好地找出正样本。


2、类别表现分析

1.F1-Confidence 曲线(BoxF1_curve)
  • 所有类别的最高 F1 分数为 0.97,出现在 confidence=0.5 左右。

  • 各类别表现均衡,“using phone” 和 “leaning over the table” 表现最好,F1 分数接近 0.97。

2.召回率曲线(BoxR_curve)
  • 所有类别的召回率在 confidence=0 时达到 0.90,说明模型在低阈值下能识别出大部分目标。

  • 随着 confidence 提高,召回率下降,符合预期。

3.精度-召回率曲线(BoxPR_curve)
  • 所有类别的 Recall 几乎都接近 1.0,说明模型在大多数情况下都能正确识别目标。

  • mAP@0.5 达到 0.905,说明模型在 IoU=0.5 时表现良好。


3、混淆矩阵分析

1.原始混淆矩阵(confusion_matrix.png)
  • “hand-raising” 类别被误识别为背景(background)较多(213次),说明该类别容易被忽略。

  • “reading” 和 “writing” 之间有一定混淆(如 reading 被误识别为 writing 97次),说明这两类行为视觉上相似。

  • “using phone” 和 “bowing the head” 识别准确率高,误识别少。

2.归一化混淆矩阵(confusion_matrix_normalized.png)
  • “hand-raising” 的正确识别率仅为 0.64,有 0.35 被误识别为背景,说明该类别的特征不够明显或样本不足。

  • “reading” 正确率为 0.90,表现良好。

  • “writing” 正确率为 0.84,但部分被误识别为 reading。

  • “using phone” 和 “bowing the head” 正确率分别为 0.91 和 0.98,表现优异。

  • 背景类别(background)被误识别为其他类别的比例较低,说明模型对背景的判断较为准确。


4、训练过程分析(results.png)

  • 训练损失(train/box_loss, train/cls_loss, train/dfl_loss)持续下降,说明模型收敛良好。

  • 验证损失(val/box_loss, val/cls_loss, val/dfl_loss)在后期略有波动,可能存在轻微过拟合。

  • mAP@0.5 和 mAP@0.5:0.95 在后期仍在缓慢上升,说明模型仍有学习空间。

Ultralytics YOLO26

概述

Ultralytics YOLO26 是 YOLO 系列实时对象检测器的最新演进,从头开始专为边缘和低功耗设备而设计。它引入了简化的设计,消除了不必要的复杂性,同时集成了有针对性的创新,以实现更快、更轻、更易于访问的部署。

YOLO26 的架构遵循三个核心原则:

  • 简洁性:YOLO26是一个原生的端到端模型,直接生成预测结果,无需非极大值抑制(NMS)。通过消除这一后处理步骤,推理变得更快、更轻量,并且更容易部署到实际系统中。这种突破性方法最初由清华大学的王傲在YOLOv10中开创,并在YOLO26中得到了进一步发展。
  • 部署效率:端到端设计消除了管道的整个阶段,从而大大简化了集成,减少了延迟,并使部署在各种环境中更加稳健。
  • 训练创新:YOLO26 引入了MuSGD 优化器,它是SGD 和MUON的混合体——灵感来源于 Moonshot AI 在 LLM 训练中Kimi K2的突破。该优化器带来了增强的稳定性和更快的收敛,将语言模型中的优化进展转移到计算机视觉领域。
  • 任务特定优化:YOLO26 针对专业任务引入了有针对性的改进,包括用于Segmentation的语义分割损失和多尺度原型模块,用于高精度姿势估计的残差对数似然估计 (RLE),以及通过角度损失优化解码以解决旋转框检测中的边界问题。

这些创新共同提供了一个模型系列,该模型系列在小对象上实现了更高的精度,提供了无缝部署,并且在CPU 上的运行速度提高了 43%— 使 YOLO26 成为迄今为止资源受限环境中最实用和可部署的 YOLO 模型之一。

主要功能

  • DFL 移除
    分布式焦点损失(DFL)模块虽然有效,但常常使导出复杂化并限制了硬件兼容性。YOLO26 完全移除了 DFL,简化了推理过程,并拓宽了对边缘和低功耗设备的支持。

  • 端到端无NMS推理
    与依赖NMS作为独立后处理步骤的传统检测器不同,YOLO26是原生端到端的。预测结果直接生成,减少了延迟,并使集成到生产系统更快、更轻量、更可靠。

  • ProgLoss + STAL
    改进的损失函数提高了检测精度,在小目标识别方面有显著改进,这是物联网、机器人、航空影像和其他边缘应用的关键要求。

  • MuSGD Optimizer
    一种新型混合优化器,结合了SGD和Muon。灵感来自 Moonshot AI 的Kimi K2,MuSGD 将 LLM 训练中的先进优化方法引入计算机视觉,从而实现更稳定的训练和更快的收敛。

  • CPU推理速度提升高达43%
    YOLO26专为边缘计算优化,提供显著更快的CPU推理,确保在没有GPU的设备上实现实时性能。

  • 实例分割增强
    引入语义分割损失以改善模型收敛,以及升级的原型模块,该模块利用多尺度信息以获得卓越的掩膜质量。

  • 精确姿势估计
    集​成残差对数似然估计​(RLE),以实现更精确的关键点定位,并优化解码过程以提高推理速度。

  • 优化旋转框检测解码
    引入专门的角度损失以提高方形物体的检测精度,并优化旋转框检测解码以解决边界不连续性问题。

常用标注工具

假设您现在准备好进行标注。有几种开源工具可以帮助简化数据标注流程。以下是一些有用的开放标注工具:

Label Studio:一个灵活的工具,支持各种标注任务,并包含用于管理项目和质量控制的功能。 CVAT:一个强大的工具,支持各种标注格式和可定制的工作流程,使其适用于复杂的项目。 Labelme:一个简单易用的工具,可以快速标注带有多边形的图像,非常适合简单的任务。 LabelImg: 一款易于使用的图形图像标注工具,特别适合以 YOLO 格式创建边界框标注。

这些开源工具经济实惠,并提供一系列功能来满足不同的标注需求。

界面核心代码:

详细功能展示视频

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/16 11:47:39

U-Mamba: 突破Transformer瓶颈,线性复杂度重塑医学图像分割新范式

1. 医学图像分割的现状与挑战 医学图像分割是计算机辅助诊断系统的核心技术之一,它需要精确识别CT、MRI等影像中的器官、肿瘤或病变区域。当前主流方法主要依赖两类架构:基于CNN的U-Net系列和基于Transformer的改进模型。我在实际医疗AI项目中发现&…

作者头像 李华
网站建设 2026/4/16 11:47:29

嘉立创EDA专业版实战:从零绘制STM32最小系统原理图

1. 嘉立创EDA专业版入门指南 第一次打开嘉立创EDA专业版时,很多新手会被界面上的各种功能按钮搞得晕头转向。作为一个从AD转战过来的老用户,我完全理解这种感受。不过别担心,经过几个项目的实战后,你会发现这款国产EDA软件其实非…

作者头像 李华
网站建设 2026/4/16 11:46:43

剖析若依(RuoYi)框架RBAC权限模型:从数据表到前后端联动的实战解析

1. 若依框架RBAC权限模型基础解析 第一次接触若依框架的权限系统时,我被它清晰的RBAC实现惊艳到了。这个设计完美解决了我们团队长期面临的权限管理混乱问题。RBAC(基于角色的访问控制)模型就像公司的职位体系:CEO、部门经理、普…

作者头像 李华
网站建设 2026/4/16 11:44:11

OpenRocket:开源火箭设计与飞行仿真软件的专业指南

OpenRocket:开源火箭设计与飞行仿真软件的专业指南 【免费下载链接】openrocket Model-rocketry aerodynamics and trajectory simulation software 项目地址: https://gitcode.com/GitHub_Trending/op/openrocket OpenRocket作为一款完全开源免费的火箭模型…

作者头像 李华