SAM(Segment Anything Model)相关论文总结

近年来,围绕 Meta AI 提出的 Segment Anything Model(SAM)研究者展开了大量相关研究,涵盖了模型优化、领域适应、轻量化部署等多个方向。以下是根据不同研究特点对近期相关工作的分类总结:

模型优化与任务扩展

HQ-SAM(Segment Anything in High Quality):为提升 SAM 在复杂结构对象上的分割质量,HQ-SAM 引入了可学习的高质量输出 token,并融合了 ViT 的早期和最终特征,仅需少量额外参数和计算即可显著提升分割精度。 

论文:https://arxiv.org/abs/2306.01567

代码:https://github.com/SysCV/sam-hq

GenSAM Relax Image-Specific Prompt Requirement in SAM: A Single Generic Prompt for Segmenting Camouflaged Objects

论文:https://arxiv.org/abs/2312.07374

代码:https://github.com/jyLin8100/GenSAM

SEEM: Segment Everything Everywhere All at Once

论文:https://arxiv.org/pdf/2304.06718

代码:https://github.com/UX-Decoder/Segment-Everything-Everywhere-All-At-Once

你可能感兴趣的:(计算机视觉,深度学习,语义分割)