摘要
学生课堂行为检测是智能教育监控系统中的关键任务,对于教学质量评估、学生注意力分析和课堂管理具有重要意义。本研究基于YOLO26目标检测算法,构建了一个包含6类常见课堂行为(举手、阅读、写字、使用手机、低头、趴桌)的检测系统。实验数据集包含训练集1422张图像、验证集203张图像和测试集407张图像。
实验结果表明,该系统在IoU=0.5阈值下的平均精度(mAP@0.5)达到0.905,其中“使用手机”和“趴桌”两类行为的F1分数接近0.97,表现最为优异。混淆矩阵分析显示,“阅读”和“写字”两类行为存在一定混淆,而“举手”行为有35%的概率被误识别为背景,表明该类别的特征提取仍有改进空间。本研究验证了YOLO26在学生课堂行为检测任务中的有效性,为后续智能课堂监控系统的开发提供了参考。
目录
摘要
详细功能展示视频
功能模块
1、用户管理模块
2、界面与交互模块
3、检测源管理模块
4、检测参数配置模块
5、YOLO检测核心模块
6、结果显示模块
7、结果保存模块
8、工具栏功能
9、辅助功能
10、数据校验模块
引言
背景
数据集介绍
数据集规模
类别定义
训练结果
Ultralytics YOLO26
概述
主要功能
常用标注工具
详细功能展示视频
功能模块
✅用户登录注册:支持密码检测,密码加密。
注册
登录
✅图片检测:可对图片进行检测,返回检测框及类别信息。
✅支持选择检测目标:可以选择一个或者多个类目的目标进行检测
✅参数实时调节(置信度和IoU阈值)
✅视频检测:支持视频文件输入,检测视频中每一帧的情况。
✅摄像头实时检测:连接USB 摄像头,实现实时监测。
✅日志记录:日志标签页记录操作和错误信息,带时间戳
✅结果保存模块:支持图片/视频/摄像头检测结果保存
1、用户管理模块
| 功能 | 描述 |
|---|---|
| 用户注册 | 用户名、密码、确认密码、邮箱(选填)注册,密码SHA256加密存储 |
| 用户登录 | 用户名密码验证,自动跳转主界面 |
| 用户数据存储 | JSON文件存储用户信息(密码加密、注册时间、邮箱) |
| 登录状态 | 主界面显示当前登录用户名 |
2、界面与交互模块
| 功能 | 描述 |
|---|---|
| 玻璃效果界面 | 半透明毛玻璃背景,圆角边框,现代化视觉风格 |
| 无边框窗口 | 自定义标题栏,支持窗口拖动、最小化、最大化、关闭 |
| 响应式布局 | 主窗口三栏布局(左侧控制区、中央显示区、右侧信息区) |
| 状态栏 | 显示设备信息、模型状态、当前用户、实时时间 |
3、检测源管理模块
| 功能 | 描述 |
|---|---|
| 图片检测 | 支持JPG/JPEG/PNG/BMP格式图片载入 |
| 视频检测 | 支持MP4/AVI/MOV/MKV格式视频载入 |
| 摄像头检测 | 实时调用摄像头(默认ID 0)进行检测 |
| 检测源切换 | 下拉菜单切换三种检测模式,自动更新界面状态 |
4、检测参数配置模块
| 功能 | 描述 |
|---|---|
| 置信度阈值 | 滑动条调节(0-100%,步长1%),实时显示当前值 |
| IoU阈值 | 滑动条调节(0-100%,步长1%),实时显示当前值 |
| 类别选择 | 动态生成检测类别复选框,支持全选/取消全选 |
| 参数同步 | 参数实时同步到检测器核心 |
5、YOLO检测核心模块
| 功能 | 描述 |
|---|---|
| 模型加载 | 加载best.pt模型文件,自动检测GPU可用性,支持CPU/GPU切换 |
| 多模式检测 | 图片检测、视频检测、摄像头实时检测 |
| 检测线程 | 基于QThread的多线程处理,避免界面卡顿 |
| 检测结果 | 返回目标类别、置信度、边界框坐标 |
| FPS计算 | 实时计算处理帧率 |
| 进度反馈 | 视频处理进度条实时更新 |
6、结果显示模块
| 功能 | 描述 |
|---|---|
| 实时画面 | 中央区域显示检测结果图像(带标注框) |
| 统计信息 | 检测状态、目标数量、FPS、处理帧数实时更新 |
| 检测列表 | 右侧列表显示当前帧所有检测到的目标(类别+置信度) |
| 日志记录 | 日志标签页记录操作和错误信息,带时间戳 |
| 占位显示 | 未选择检测源时显示系统LOGO和提示文字 |
7、结果保存模块
| 功能 | 描述 |
|---|---|
| 保存开关 | 复选框控制是否保存检测结果 |
| 路径选择 | 自定义保存路径,支持图片/视频格式自动识别 |
| 自动命名 | 保存文件自动添加时间戳(detection_result_20240101_120000.jpg) |
| 视频保存 | 支持检测结果视频录制(MP4格式) |
| 手动保存 | 工具栏保存按钮可随时保存当前画面 |
| 保存反馈 | 保存成功弹窗提示,日志记录保存路径 |
8、工具栏功能
| 功能 | 描述 |
|---|---|
| 图片按钮 | 快速切换到图片检测模式并打开文件选择器 |
| 视频按钮 | 快速切换到视频检测模式并打开文件选择器 |
| 摄像头按钮 | 快速切换到摄像头检测模式 |
| 保存按钮 | 手动保存当前显示画面 |
9、辅助功能
| 功能 | 描述 |
|---|---|
| 错误处理 | 统一错误弹窗提示,日志记录错误详情 |
| 资源清理 | 检测停止时自动释放摄像头、视频文件、视频写入器资源 |
| 时间显示 | 状态栏实时显示系统时间 |
| 模型状态 | 状态栏显示模型加载状态和当前设备(CPU/GPU) |
10、数据校验模块
| 功能 | 描述 |
|---|---|
| 注册验证 | 用户名长度≥3,密码长度≥6,密码一致性检查,邮箱格式验证 |
| 协议确认 | 注册前需勾选同意用户协议 |
| 文件校验 | 模型文件存在性检查,文件大小验证(≥6MB) |
| 输入非空 | 登录/注册时必填项非空检查 |
引言
随着人工智能技术在教育领域的深入应用,智能课堂监控系统逐渐成为研究热点。学生课堂行为检测作为其中的核心任务,能够自动识别学生在课堂上的各种行为表现,为教师提供教学反馈,帮助学生提高学习效率,同时也为教育管理者提供客观的教学质量评估依据。
传统的课堂行为观察主要依靠人工记录,这种方式不仅耗时耗力,而且受观察者主观因素影响较大,难以实现大规模、长时间的持续监测。近年来,随着计算机视觉技术的快速发展,特别是深度学习在目标检测领域的突破,使得自动化的课堂行为检测成为可能。YOLO系列算法因其检测速度快、精度高的特点,特别适合实时课堂监控场景的应用需求。
然而,课堂环境复杂多变,学生姿态多样,光照条件不一,加之行为类别间的相似性(如阅读和写字),给准确检测带来了挑战。本研究旨在通过构建一个基于YOLO26的学生课堂行为检测系统,探索该算法在实际课堂环境下的检测性能,分析各类行为的识别难点,为后续优化提供方向。
背景
学生课堂行为检测系统的研究与发展,源于教育信息化和智能化的深度融合。随着“智慧校园”、“智能教育”等概念的提出,如何利用先进技术手段提升教学质量、优化教学管理,已成为教育领域的重要课题。
从教育学的角度来看,学生在课堂上的行为表现直接反映了其学习状态和注意力水平。举手代表参与互动,阅读和写字体现学习投入,使用手机可能表示分心,低头和趴桌则往往暗示疲劳或注意力下降。对这些行为的实时监测和分析,可以帮助教师及时调整教学策略,提高课堂互动效果。同时,长期积累的行为数据也能为教育研究提供有价值的定量分析基础。
从技术发展的角度来看,课堂行为检测经历了从传统图像处理到深度学习的重要转变。早期的研究主要依赖于人工设计的特征,如方向梯度直方图(HOG)、局部二值模式(LBP)等,结合支持向量机(SVM)等分类器进行行为识别。这类方法在简单场景下有一定效果,但难以应对课堂环境的复杂性和多样性。
2012年以来,卷积神经网络(CNN)的兴起为图像识别带来了革命性变化。目标检测算法从R-CNN、Fast R-CNN发展到YOLO、SSD等单阶段检测器,检测速度和精度不断提升。特别是YOLO26作为YOLO系列的最新版本,在保持实时检测优势的同时,进一步提升了检测精度和小目标识别能力,非常适合课堂行为检测这类需要同时关注多个学生、多种行为的应用场景。
当前,课堂行为检测仍面临诸多挑战:学生姿态变化大、遮挡严重、光照不均、行为类别间相似度高、样本类别不平衡等。如何提高模型在复杂场景下的鲁棒性,如何更好地区分相似行为,如何处理类别不平衡问题,都是本研究需要重点关注的方向。
数据集介绍
数据集规模
本研究所使用的课堂行为数据集共包含2032张标注图像,按照约7:1:2的比例划分为训练集、验证集和测试集,具体分布如下:
训练集:1422张图像
验证集:203张图像
测试集:407张图像
类别定义
数据集共包含6类学生课堂行为,分别为:
举手(hand-raising):学生单臂或双臂举起,表示提问或回答问题
阅读(reading):学生注视书本或阅读材料
写字(writing):学生持笔在纸张或笔记本上书写
使用手机(using phone):学生手持手机或低头注视手机屏幕
低头(bowing the head):学生低头但不涉及手机使用,可能是在思考或疲劳
趴桌(leaning over the table):学生头部趴在桌面上,通常表示疲劳或注意力分散
训练结果![]()
1、总体性能评估
1.mAP@0.5 和 mAP@0.5:0.905
mAP@0.5 最高达到 0.97(见 BoxF1_curve),说明模型在IoU=0.5时表现非常好。
mAP@0.5:0.95 在训练后期达到 0.145(见 results.png),说明模型在更严格的IoU阈值下仍有不错的表现,但还有提升空间。
2.精度与召回率
精度(Precision)和召回率(Recall)在训练后期稳定在0.05左右(见 results.png),这可能是因为数据量较大或标签不平衡,导致指标偏低。
但从BoxPR_curve.png看,所有类别的 Recall 都接近 1.0,说明模型能较好地找出正样本。
2、类别表现分析
1.F1-Confidence 曲线(BoxF1_curve)![]()
所有类别的最高 F1 分数为 0.97,出现在 confidence=0.5 左右。
各类别表现均衡,“using phone” 和 “leaning over the table” 表现最好,F1 分数接近 0.97。
2.召回率曲线(BoxR_curve)![]()
所有类别的召回率在 confidence=0 时达到 0.90,说明模型在低阈值下能识别出大部分目标。
随着 confidence 提高,召回率下降,符合预期。
3.精度-召回率曲线(BoxPR_curve)![]()
所有类别的 Recall 几乎都接近 1.0,说明模型在大多数情况下都能正确识别目标。
mAP@0.5 达到 0.905,说明模型在 IoU=0.5 时表现良好。
3、混淆矩阵分析
1.原始混淆矩阵(confusion_matrix.png)![]()
“hand-raising” 类别被误识别为背景(background)较多(213次),说明该类别容易被忽略。
“reading” 和 “writing” 之间有一定混淆(如 reading 被误识别为 writing 97次),说明这两类行为视觉上相似。
“using phone” 和 “bowing the head” 识别准确率高,误识别少。
2.归一化混淆矩阵(confusion_matrix_normalized.png)![]()
“hand-raising” 的正确识别率仅为 0.64,有 0.35 被误识别为背景,说明该类别的特征不够明显或样本不足。
“reading” 正确率为 0.90,表现良好。
“writing” 正确率为 0.84,但部分被误识别为 reading。
“using phone” 和 “bowing the head” 正确率分别为 0.91 和 0.98,表现优异。
背景类别(background)被误识别为其他类别的比例较低,说明模型对背景的判断较为准确。
4、训练过程分析(results.png)![]()
训练损失(train/box_loss, train/cls_loss, train/dfl_loss)持续下降,说明模型收敛良好。
验证损失(val/box_loss, val/cls_loss, val/dfl_loss)在后期略有波动,可能存在轻微过拟合。
mAP@0.5 和 mAP@0.5:0.95 在后期仍在缓慢上升,说明模型仍有学习空间。
Ultralytics YOLO26
概述
Ultralytics YOLO26 是 YOLO 系列实时对象检测器的最新演进,从头开始专为边缘和低功耗设备而设计。它引入了简化的设计,消除了不必要的复杂性,同时集成了有针对性的创新,以实现更快、更轻、更易于访问的部署。
YOLO26 的架构遵循三个核心原则:
- 简洁性:YOLO26是一个原生的端到端模型,直接生成预测结果,无需非极大值抑制(NMS)。通过消除这一后处理步骤,推理变得更快、更轻量,并且更容易部署到实际系统中。这种突破性方法最初由清华大学的王傲在YOLOv10中开创,并在YOLO26中得到了进一步发展。
- 部署效率:端到端设计消除了管道的整个阶段,从而大大简化了集成,减少了延迟,并使部署在各种环境中更加稳健。
- 训练创新:YOLO26 引入了MuSGD 优化器,它是SGD 和MUON的混合体——灵感来源于 Moonshot AI 在 LLM 训练中Kimi K2的突破。该优化器带来了增强的稳定性和更快的收敛,将语言模型中的优化进展转移到计算机视觉领域。
- 任务特定优化:YOLO26 针对专业任务引入了有针对性的改进,包括用于Segmentation的语义分割损失和多尺度原型模块,用于高精度姿势估计的残差对数似然估计 (RLE),以及通过角度损失优化解码以解决旋转框检测中的边界问题。
这些创新共同提供了一个模型系列,该模型系列在小对象上实现了更高的精度,提供了无缝部署,并且在CPU 上的运行速度提高了 43%— 使 YOLO26 成为迄今为止资源受限环境中最实用和可部署的 YOLO 模型之一。
主要功能
DFL 移除
分布式焦点损失(DFL)模块虽然有效,但常常使导出复杂化并限制了硬件兼容性。YOLO26 完全移除了 DFL,简化了推理过程,并拓宽了对边缘和低功耗设备的支持。端到端无NMS推理
与依赖NMS作为独立后处理步骤的传统检测器不同,YOLO26是原生端到端的。预测结果直接生成,减少了延迟,并使集成到生产系统更快、更轻量、更可靠。ProgLoss + STAL
改进的损失函数提高了检测精度,在小目标识别方面有显著改进,这是物联网、机器人、航空影像和其他边缘应用的关键要求。MuSGD Optimizer
一种新型混合优化器,结合了SGD和Muon。灵感来自 Moonshot AI 的Kimi K2,MuSGD 将 LLM 训练中的先进优化方法引入计算机视觉,从而实现更稳定的训练和更快的收敛。CPU推理速度提升高达43%
YOLO26专为边缘计算优化,提供显著更快的CPU推理,确保在没有GPU的设备上实现实时性能。实例分割增强
引入语义分割损失以改善模型收敛,以及升级的原型模块,该模块利用多尺度信息以获得卓越的掩膜质量。精确姿势估计
集成残差对数似然估计(RLE),以实现更精确的关键点定位,并优化解码过程以提高推理速度。优化旋转框检测解码
引入专门的角度损失以提高方形物体的检测精度,并优化旋转框检测解码以解决边界不连续性问题。
常用标注工具
假设您现在准备好进行标注。有几种开源工具可以帮助简化数据标注流程。以下是一些有用的开放标注工具:
Label Studio:一个灵活的工具,支持各种标注任务,并包含用于管理项目和质量控制的功能。 CVAT:一个强大的工具,支持各种标注格式和可定制的工作流程,使其适用于复杂的项目。 Labelme:一个简单易用的工具,可以快速标注带有多边形的图像,非常适合简单的任务。 LabelImg: 一款易于使用的图形图像标注工具,特别适合以 YOLO 格式创建边界框标注。
这些开源工具经济实惠,并提供一系列功能来满足不同的标注需求。
界面核心代码: