YOLO11改进-注意力-引入通道压缩的自注意力机制CRA

           在语义分割任务中存在 MetaFormer 架构应用局限于自注意力计算效率低的问题。为解决这些问题,提出 提出 CRA 模块。CRA 它通过将查询和键的通道维度缩减为一维,在考虑全局上下文提取的同时,显著降低了自注意力的计算成本,提高了网络的计算效率。本文将CRA与C2PSA相结合,在降低计算成本的同时提高精度。  
代码:https://github.com/tgf123/YOLOv8_improve/blob/master/YOLOv11.md

1. Channel Reduction Attention (CRA)结构介绍          

        Channel Reduction Attention (CRA) 是一种基于通道压缩的自注意力机制,主要应用于语义分割中的全局特征捕捉。CRA的设计通过将查询(Query)

你可能感兴趣的:(YOLOv11模型改进系列,网络,YOLO,YOLOv11,目标检测,模块,魔改,YOLOv11改进)