【Block总结】PSA,极化自注意力|即插即用

1. 论文信息

  • 标题: Polarized Self-Attention: Towards High-quality Pixel-wise Regression

  • 链接: arXiv

  • GitHub链接:https://github.com/DeLightCMU/PSA

【Block总结】PSA,极化自注意力|即插即用_第1张图片

2. 创新点

该论文提出了一种新的自注意力机制——极化自注意力(Polarized Self-Attention, PSA),其主要创新点包括:

  • 极化过滤(Polarized Filtering): 在通道和空间注意力计算中保持高内部分辨率,同时完全折叠输入张量,减少信息损失。

  • 增强(Enh

你可能感兴趣的:(Block总结,计算机视觉,深度学习,人工智能,目标检测)