近年来,围绕 Meta AI 提出的 Segment Anything Model(SAM)研究者展开了大量相关研究,涵盖了模型优化、领域适应、轻量化部署等多个方向。以下是根据不同研究特点对近期相关工作的分类总结:
模型优化与任务扩展
HQ-SAM(Segment Anything in High Quality):为提升 SAM 在复杂结构对象上的分割质量,HQ-SAM 引入了可学习的高质量输出 token,并融合了 ViT 的早期和最终特征,仅需少量额外参数和计算即可显著提升分割精度。
论文:https://arxiv.org/abs/2306.01567
代码:https://github.com/SysCV/sam-hq
GenSAM Relax Image-Specific Prompt Requirement in SAM: A Single Generic Prompt for Segmenting Camouflaged Objects
论文:https://arxiv.org/abs/2312.07374
代码:https://github.com/jyLin8100/GenSAM
SEEM: Segment Everything Everywhere All at Once
论文:https://arxiv.org/pdf/2304.06718
代码:https://github.com/UX-Decoder/Segment-Everything-Everywhere-All-At-Once