news 2026/5/1 3:47:06

YOLO26改进策略【Backbone/主干网络】| ICLR-2023 替换骨干网络为:RevCol 一种新型神经网络设计范式

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
YOLO26改进策略【Backbone/主干网络】| ICLR-2023 替换骨干网络为:RevCol 一种新型神经网络设计范式

一、本文介绍

本文记录的是基于RevCol的YOLO26目标检测骨干网络改进方法研究

RevCol是一种新型神经网络设计范式,它由多个子网(列)及多级可逆连接构成,正向传播时特征逐渐解缠结且保持信息。可逆变换借鉴可逆神经网络思想,设计多级可逆单元用于解决模型对特征图形状的限制以及与信息瓶颈原则的冲突

本文将其应用到YOLO26中,并配置了原论文中的revcol_tinyrevcol_smallrevcol_baserevcol_largerevcol_xlarge五种不同大小的模型,以适应不同的需求。

文章目录

  • 一、本文介绍
  • 二、RevCol模型设计
    • 2.1出发点
    • 2.2 原理
      • 2.2.1 可逆变换的核心作用
      • 2.2.2 中间监督机制
    • 2.3 结构
      • 2.3.1 宏观设计
      • 2.3.2 微观设计
    • 2.4 优势
  • 三、RevCol的实现代码
  • 四、修改步骤
    • 4.1 修改一
    • 4.2 修改二
    • 4.3 修改三
  • 五、yaml模型文件
    • 5.1 模型改进⭐
  • 六、成功运行结果

二、RevCol模型设计

2.1出发点

  • 信息瓶颈原则的局限:传统监督学习网络遵循信息瓶颈原则(IB),如图所示,靠近输入的层包含更多低级信息靠近输出的层富含语义信息,即与目标无关的信息在逐层传播中逐渐被压缩。但这种方式可能导致下游任务性能不佳,尤其当学习到的特征过度压缩或语义信息与目标任务无关,且源任务和目标任务存在领域差距时。

  • 解缠结特征学习的需求:提出构建网络学习解缠结表示,不同于IB学习,解缠结特征学习旨在将任务相关概念或语义分别嵌入到几个解耦维度,同时保持整个特征向量大致与输入有相同信息量,类似于生物细胞机制。

在计算机视觉任务中,学习解缠结特征是合理的,例如在Imag

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/21 9:01:33

CSS - code

CSS code 倾斜按钮<style>button {width: 180px;height: 80px;background: #409eff;border: none;outline: none;display: block;margin: 0 auto;color: #fff;font-size: 18px;border-radius: 15px 0;position: relative;transform: skew(-20deg);}button::before {posit…

作者头像 李华
网站建设 2026/4/19 19:39:19

删除某一个大表中的大部分数据

场景 要删除表T中的大部分数据&#xff0c;因表太大&#xff0c;删除慢&#xff0c;得到另一种更加快速方法 方法 -- 1. 创建新表&#xff08;保留不需要删除的数据&#xff09; CREATE TABLE T_new LIKE T;-- 2. 插入保留数据&#xff08;假设需保留imei不在列表中的数据&…

作者头像 李华
网站建设 2026/4/24 11:23:25

大模型应用监控不内卷!Java Agent带你躺平实现无侵入监控

应用场景 APM&#xff1a;应用性能监控。如 SkyWalking、OpenTelemetry 等通过 Agent 插桩收集调用链、耗时等代码覆盖率工具&#xff1a;如 JaCoCo 在测试时注入探针统计覆盖情况热部署 / 热更新&#xff1a;如 JRebel 利用 Agent 修改类定义实现无需重启生效安全审计 / 日志…

作者头像 李华