在目标检测领域,注意力机制已成为性能突破的关键。然而,传统方法面临计算量大、信息冗余等痛点。今天,我们揭秘一款原创的动态稀疏注意力模块(DSAM),基于BiLevelRoutingAttention进行革命性升级,在YOLO系列上实现mAP最高提升4.2%,小目标检测精度暴涨8.3%!
一、BiLevelRoutingAttention的局限与突破
BiLevelRoutingAttention(BRA) 是近年明星级注意力机制,其核心创新在于:
- 双级路由:先区域级路由,再像素级路由
- 稀疏计算:仅处理相关区域,降低计算量
- 硬件友好:线性计算复杂度
但BRA在目标检测中仍存在三大痛点: