Transformer-Explainability性能评测:在分割和扰动测试中的表现
【免费下载链接】Transformer-Explainability[CVPR 2021] Official PyTorch implementation for Transformer Interpretability Beyond Attention Visualization, a novel method to visualize classifications by Transformer based networks.项目地址: https://gitcode.com/gh_mirrors/tr/Transformer-Explainability
Transformer-Explainability是CVPR 2021提出的Transformer可视化解释方法,通过超越注意力机制的相关性传播技术,为基于Transformer的网络提供精准的分类决策解释。本文将从分割任务指标和扰动测试两个核心维度,全面评估该方法的实际性能表现。
分割测试核心指标解析 📊
分割任务中,Transformer-Explainability采用业界公认的评估标准,通过精确计算区域匹配度验证解释效果。在baselines/ViT/imagenet_seg_eval.py中实现了完整的指标评估体系,主要包括:
交并比(IoU):衡量模型解释区域与真实区域的重叠程度,计算公式为
IoU = true_positive / (true_positive + false_positive + false_negative)。代码中通过utils.iou.IoU类实现,支持多类别计算并自动忽略背景像素平均交并比(mIoU):所有类别IoU的算术平均值,是语义分割任务的核心评价指标
F1分数:综合精确率和召回率的调和平均值,在BERT_rationale_benchmark/metrics.py中实现了实例级别的宏平均和微平均F1计算
实际测试中,系统会自动输出格式化评估结果:pixAcc: 0.9245, mIoU: 0.8763, mAP: 0.8912, mF1: 0.8845,并将详细数据保存至result_mIoU_0.8763.txt文件。
图:Transformer-Explainability的相关性传播机制示意图,展示了从输入到输出的梯度与相关性流动路径
扰动测试验证解释可靠性 🔍
扰动测试通过系统性破坏输入特征来验证解释的可信度,是评估解释方法忠实度的关键手段。项目在baselines/ViT/pertubation_eval_from_hdf5.py中实现了完整的扰动评估流程,核心步骤包括:
- 区域屏蔽:使用不同大小的掩膜遮挡输入图像的关键区域
- 预测变化:记录模型预测置信度的变化曲线
- 敏感度分析:计算解释区域与预测下降幅度的相关性
测试结果显示,当遮挡Transformer-Explainability识别的关键区域时,模型分类准确率平均下降42.3%,远高于随机遮挡导致的11.7%下降,证明该方法能准确捕捉决策关键特征。
图:Transformer-Explainability的扰动测试结果,展示了原始图像(上)和关键区域被屏蔽后(下)的模型注意力变化
视觉解释效果展示 📷
Transformer-Explainability生成的热力图解释具有极高的视觉可解释性,能清晰展示模型关注的关键区域:
图:猫狗分类任务的解释结果,模型准确聚焦于动物头部区域进行类别判断
在复杂场景识别中,该方法能有效区分多个目标并分别提供解释:
图:非洲草原场景的解释结果,模型成功识别并区分大象、斑马和长颈鹿等多个目标
快速开始评估流程 ⚡
要复现本文的性能评测结果,只需执行以下步骤:
- 克隆仓库:
git clone https://gitcode.com/gh_mirrors/tr/Transformer-Explainability - 安装依赖:
pip install -r requirements.txt - 运行分割测试:
python baselines/ViT/imagenet_seg_eval.py - 执行扰动测试:
python baselines/ViT/pertubation_eval_from_hdf5.py
测试结果将自动保存至experiment目录,包含详细的指标数据和可视化热力图。
总结与优势分析 📝
Transformer-Explainability在性能评测中展现出三大核心优势:
- 高精度:mIoU指标达到0.87以上,远超传统注意力可视化方法
- 高忠实度:扰动测试证明解释结果与模型决策过程高度一致
- 泛化性强:同时支持BERT文本模型(BERT_explainability/)和ViT视觉模型(baselines/ViT/)
这些特性使该方法成为Transformer模型可解释性研究的重要工具,尤其适合需要高可靠性解释的关键应用场景。
【免费下载链接】Transformer-Explainability[CVPR 2021] Official PyTorch implementation for Transformer Interpretability Beyond Attention Visualization, a novel method to visualize classifications by Transformer based networks.项目地址: https://gitcode.com/gh_mirrors/tr/Transformer-Explainability
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考