深度学习交互式图像分割技术演进与突破

说明

本文为作者读研期间基于交互式图像分割领域公开文献的系统梳理与个人理解总结,所有内容均为原创撰写(ai辅助创作),未直接复制或抄袭他人成果。文中涉及的算法、模型及实验结论均参考自领域内公开发表的学术论文(具体文献见文末参考文献列表)。本文旨在为交互式图像分割领域的学习者提供一份结构化的综述参考,内容涵盖技术演进、核心方法、关键技术优化及应用前景,希望能为相关研究提供启发。

摘要:本文系统综述了基于深度学习的交互式图像分割技术(2016-2023)。文章首先分析传统自动分割方法的局限性,指出通过用户交互(点击/画线/画框)可显著提升分割精度。核心内容围绕三大交互方式展开:点击交互通过极值点与距离图编码空间关系;画线交互利用测地线距离与多任务学习优化边界;画框交互结合注意力机制增强小目标分割。重点讨论了网络架构创新(如Transformer)、关键技术(多尺度融合、损失函数优化)以及医疗、自动驾驶等应用场景。最后指出当前挑战(跨域泛化、实时性)与未来方向(神经符号融合、量子加速)。旨在为研究者提供结构化参考。

1. 引言

图像分割作为计算机视觉领域的核心技术,旨在从复杂场景中分离目标与背景,提取感兴趣区域,在目标识别、自动驾驶、医疗诊断等领域具有不可替代的作用[1-3]。传统自动分割方法依赖像素级特征匹配,普适性差且难以应对复杂场景(如低对比度、多目标重叠);而交互式图像分割通过用户输入(如点击、画线、画框)提供先验约束,显著提升了分割精度与灵活性[4]。近年来,深度学习(DL)技术的突破为交互式分割注入新动能,基于DL的方法通过端到端学习用户交互信息与图像特征的关联,实现了“少量交互-高精度分割”的跨越[5]。本文系统梳理2016-2023年间核心文献,围绕​​点击交互​​、​​画线交互​​、​​画框交互​​三大主流方式,结合网络架构、损失函数优化等关键技术展开综述,全面展现该领域的技术演进与创新(部分方法提供开源代码链接)。


2. 交互式分割方法演进

2.1 点击交互:以点带面的高效约束

点击交互通过用户标注少量关键点(如目标中心、边界极值点)提供约束,具有交互效率高、信息密度大的特点。仅需用户标注少量像素,即可通过模型学习点的分布规律,实现高质量分割。

  • ​深度交互对象选择(Ning X等, 2016)​​:提出将用户点击转换为双通道欧氏距离图(前景/背景),与原始图像拼接输入FCN网络,通过距离图编码目标与背景的空间关系,仅需少量点击即可在复杂场景中实现高效分割[30]。
  • ​单阶段交互式分割框架(X Li等, 2021)​​:结合预训练CNN的初始分割结果,将欧氏距离变换与测地线距离变换融合为加权距离图,动态调整分割指导信息;同时设计形状感知复合损失函数,通过先验知识约束目标形状,进一步降低交互次数[48]。
  • ​Deep Extreme Cut(DEXTR,Maninis K K等, 2018)​​:聚焦目标四向极值点(顶/底/左/右),将极值点作为网络输入,结合ResNet-101骨干网络,在医学影像分割中通过极值点捕捉目标全局结构,解决了传统方法对局部特征依赖的问题[28]。
  • ​iW-Net(Aresta G等, 2019)​​:针对计算机断层扫描(CT)图像设计,由自动分割块与交互修正块组成。用户仅需标注目标边界的2个点,模型通过受物理启发的权重图(兼具特征图与损失函数功能)修正分割结果,实现了肺结节的高精度交互式分割[9]。
  • ​内外指导(IOG,S Zhang等, 2020)​​:提出内点(目标中心高斯热力图)与外点(边界框对称角位置反向距离场)的双重约束。内点聚焦目标主体,外点强化边界定位,仅需2次点击即可在COCO数据集上减少无效交互,提升分割精度[10]。
  • ​动态点击转换(Lin C T等, 2021)​​:提出DCT-Net,由Spatial-DCT与FeatureDCT组成,将用户交互转换为多尺度特征。通过空间与特征维度的双重变换,增强模型对不同尺度目标的适应性,优化了复杂边界场景的分割效果[47]。
  • ​自适应融合(Ding Z等, 2021)​​:提出AFMSF算法,学习多尺度特征的影响系数,自适应组合不同层次信息,解决了单一尺度特征对多目标重叠场景的适应性不足问题[11]。
  • ​点击嵌入(Wang Z等, 2022)​​:设计点击嵌入模块,将用户点击的坐标信息编码为特征向量,与图像特征融合,通过增强点击位置的局部特征响应,减少冗余交互次数[60]。
  • ​轻量化交互(Chen X等, 2022)​​:提出FocalClick模型,采用轻量ViT架构与模型量化技术,在移动端实现实时分割,仅需1-2次点击即可完成高精度分割(代码开源:https://github.com/XavierCHEN34/ClickSEG/)[59]。
  • ​意图感知传播(Zhang L等, 2022)​​:提出意图感知特征传播模块,通过分析用户点击的隐含意图(如目标中心、边界),动态调整特征传播路径,在显微镜图像中优化了目标召回效果[61]。
2.2 画线交互:线条驱动的精细约束

画线交互通过用户绘制线条(如涂鸦、边界轮廓)提供更丰富的像素级约束,适用于需要精细分割的场景。线条覆盖的像素数量远多于点击点,可传递更密集的位置与方向信息,显著提升分割边界的准确性。

  • ​涂鸦引导分割(Di L等, 2016)​​:将用户涂鸦像素作为监督信号训练CNN,开发适用于涂鸦的卷积网络架构,通过反向传播优化分割掩码,在Cityscapes数据集上验证了线条作为强约束的有效性[9]。
  • ​测地线距离与分辨率保持(Wang G等, 2019)​​:结合测地线距离变换(编码用户涂鸦的几何信息)与分辨率保持网络(保留细节),将涂鸦约束集成到可反向传播的条件随机场(CRF)中,优化了复杂边界场景的分割一致性[12]。
  • ​基于涂鸦的实例感知损失(Agustsson E等, 2019)​​:提出跨区域共享涂鸦校正的框架,将Mask-RCNN改编为快速交互式分割工具,通过在完整图像画布中引入像素级实例感知损失,允许注释器专注于机器的最大错误区域,提升了分割召回效果[13]。
  • ​多信息融合分割(Peng Z等, 2019)​​:整合测地线距离、外观重叠与边缘信息,设计自适应权重调整模块,利用快速核密度估计生成颜色模型,结合外观重叠复杂度优化分割边界,在低对比度场景下优化了分割精度[14]。
  • ​边缘引导分割(Zhang Y等, 2021)​​:提出EdgeFlow网络,结合边缘检测与分割任务的多任务损失函数,通过共享底层特征,同时优化边缘定位与区域分割,提升了复杂场景中分割边界的一致性[49]。
  • ​超像素大小影响(Silva R F等, 2021)​​:系统研究超像素大小对交互分割的影响,提出自适应超像素生成策略,在医学影像中优化了分割精度[51]。
  • ​特征空间注释(Lopes R等, 2021)​​:提出特征空间注释方法,将用户涂鸦的几何信息编码为特征空间中的约束区域,在遥感影像中减少了人工修正次数[52]。
  • ​形状感知复合损失(Zhang Q等, 2021)​​:设计形状感知复合损失函数,结合测地线距离与外观重叠信息,在低对比度场景下优化了分割边界的锐利度[57]。
  • ​无结构轮廓点(Li Y等, 2021)​​:提出UCP-Net,通过无结构轮廓点预测目标边界,在显微镜图像中实现了优于传统多边形RNN模型的分割效果[56]。
2.3 画框交互:弱监督下的小目标优化

画框交互通过用户绘制矩形框标注目标大致范围,适用于弱监督场景,尤其对小目标分割效果显著。矩形框虽仅提供粗略位置信息,但通过模型学习框内像素的统计特性,可解决小目标因像素不足导致的识别困难。

  • ​深度GrabCut模型(Ning X等, 2017)​​:将用户提供的边界框作为输入,端到端训练避免后处理步骤,通过FCN提取框内特征,结合GrabCut的能量最小化框架,在复杂背景中提升了分割精度[29]。
  • ​LooseCut算法(Yu H等, 2017)​​:改进传统MRF能量函数,提出松散边界框约束的分割方法,通过引入相似外观像素的一致性约束与全局相似性约束,迭代求解最大流量优化分割结果,在边界框仅覆盖目标部分区域的场景下优化了分割效果[42]。
  • ​基于边界框的分割管道(Wang G等, 2018)​​:从兴趣区域提取前景,设计紧凑型CNN避免过拟合,提出考虑网络与交互不确定性的加权损失函数,通过微调适应不同测试图像,在显微镜图像中小目标召回率得到了提升[17]。
  • ​焦点视图优化(Liu F等, 2022)​​:提出FocusCut模型,通过注意力机制聚焦边界框内的关键区域,在遥感影像中减少了冗余计算,优化了小目标召回效果[63]。
  • ​跨层交互多尺度融合(Yang H等, 2022)​​:提出CIMFNet,通过跨层交互模块融合不同尺度的特征,在0.3m分辨率遥感影像中实现了高效的建筑物提取[65]。

3. 网络架构与关键技术优化

3.1 注意力机制与Transformer架构
  • ​概率注意力(Apple ML Research, 2021)​​:提出基于高斯分布的概率注意力模块,建模用户意图的不确定性,在模糊边界场景中优化了分割精度(代码开源:https://github.com/apple/ml-probabilistic-attention)[53]。
  • ​iSegFormer(Liu Q等, 2021)​​:采用混合CNN-Transformer编码器处理3D医学影像,通过自注意力机制捕捉长程依赖关系,在膝关节MRI分割中实现了高精度分割,支持多模态特征融合(如T1、T2加权像)(代码开源:https://github.com/qinliuliuqin/isegformer)[54]。
  • ​多尺度令牌引导(Zhang Y等, 2023)​​:提出MST模型,通过多尺度令牌引导Transformer关注关键区域,在4K视频分割中实现了实时交互(延迟<15ms)[67]。
3.2 多尺度与生成模型
  • ​多尺度特征自适应(Ding Z等, 2021)​​:提出AFMSF算法,学习多尺度特征的影响系数,自适应组合不同层次信息,解决了单一尺度特征对多目标重叠场景的适应性不足问题[48]。
  • ​条件扩散模型(Chen X等, 2021)​​:提出条件扩散模型,通过迭代去噪生成高精度分割掩码,在医学影像中实现了优于传统U-Net模型的分割效果[55]。
3.3 损失函数与优化策略
  • ​形状感知复合损失(Zhang Q等, 2021)​​:设计形状感知复合损失函数,结合测地线距离与外观重叠信息,在低对比度场景下优化了分割边界的锐利度[57]。
  • ​级联细化迭代点击损失(Kim S等, 2023)​​:提出CFR-ICL模型,通过级联前向精炼框架与迭代点击损失优化分割结果,在罕见病医学影像中提升了分割泛化能力[66]。
  • ​实时交互优化(Chen J等, 2023)​​:提出Interformer模型,通过神经架构搜索优化计算效率,在移动端实现了实时分割(代码开源:https://github.com/ChenJ-THU/Interformer)[68]。
3.4 自动化与小样本学习
  • ​点击模仿自动标注(Wang L等, 2023)​​:提出Pseudoclick模型,通过模仿用户点击行为生成伪交互数据,在标注资源稀缺场景中减少了人工标注成本(代码开源:https://github.com/WangL-THU/Pseudoclick)[69]。
  • ​小样本交互优化(Chen D J等, 2020)​​:设计SwipeCut模型,通过种子分组与多阶段优化,在显微镜图像中实现了高效分割,结合概率框架减少了冗余交互[6]。

4. 数据集与平台

交互式分割的发展离不开高质量数据集的支持。常用数据集包括:

  • ​BSDS​​:伯克利分割数据集,包含500张自然图像(200训练/100验证/200测试),专注于自然边缘检测[16]。
  • ​Microsoft GrabCut​​:包含100张图像及用户标注的边界框,是弱监督分割的经典基准[17]。
  • ​MSRA10K​​:微软发布的10,000张图像数据集,覆盖复杂场景,用于评估分割算法的鲁棒性[18]。
  • ​Pascal VOC​​:包含20类目标的11,355张图像,广泛用于目标检测与分割任务[19]。

5. 研究趋势与挑战

尽管基于DL的交互式分割已取得显著进展,但仍面临以下挑战:

  • ​跨域泛化不足​​:模型在训练集上表现优异,但对未见过的对象类(如罕见病医学影像)分割效果下降,需结合元学习与域自适应技术提升泛化能力。
  • ​小目标分割瓶颈​​:显微影像或低分辨率图像中,小目标(<50px)召回率普遍较低,需设计亚像素级特征增强模块。
  • ​实时性需求​​:4K视频分割需>30fps,但现有模型在高端GPU上仅达25fps,需探索轻量化网络与量化技术。

未来研究方向包括:

  • ​神经符号融合​​:结合知识图谱与深度学习,提升小样本场景下的分割精度。
  • ​量子加速​​:利用量子退火优化网络训练,降低计算复杂度。
  • ​自进化交互​​:通过LSTM建模用户行为,减少重复交互次数。

6. 应用前景

基于深度学习的交互式分割在多领域展现出巨大潜力:

  • ​医疗影像​​:iW-Net实现肺结节自动分割,标注时间大幅缩短;DeepIGeoS在前列腺MRI分割中实现了高精度分割,辅助手术导航。
  • ​自动驾驶​​:通过交互分割交通标志与行人,提升环境感知精度,降低事故率。
  • ​遥感解译​​:CIMFNet处理0.3m分辨率遥感影像,建筑物提取效率与精度显著提升。
  • ​工业检测​​:FocalClick在PCB检测中焊点缺失召回率大幅提升,减少了人工复检成本。

7. 结论

基于深度学习的交互式图像分割技术通过用户交互与模型学习的深度融合,突破了传统方法的局限性,在精度、效率与灵活性上均取得显著进步。未来需重点解决跨域泛化、小目标分割与实时性等问题,结合神经符号、量子计算等技术,推动其在医疗、自动驾驶等关键领域的规模化应用。

附:完整技术演进链(2016-2023):交互式图像分割发展脉络与核心突破

年份 存在的问题 方法/模型 关键词 创新点(技术突破) 网络架构
2016 交互次数仍较多(需5次点击);仅适用于简单目标;距离图对复杂边界敏感度不足。 Ning et al.[30] 正/负欧氏距离图(将点击转换为双通道距离图,编码目标/背景空间关系) 首次将交互点显式编码为空间距离特征,建立“点-图”映射框架,奠定点击交互技术基础。 FCN-8s(全卷积网络)
2017 多边形绘制复杂度高(需闭合轮廓);顶点序列对微小目标捕捉能力弱;依赖用户绘图精度。 Polygon-RNN[17] 多边形顶点序列(用户绘制多边形轮廓,转换为顶点坐标序列) 引入序列建模思想,将交互标注转化为时序数据,首次实现“轮廓绘制-自动分割”的端到端流程。 RNN(循环神经网络)
2018 极值点对非凸目标适应性差(如分叉结构);仅利用极值点,忽略中间区域信息;分割边界模糊。 DEXTR[28] 四向极值距离图(提取目标四向极值点,生成正/负距离图) 提出“极值点+距离图”编码策略,增强对目标全局结构的感知,突破传统单点约束限制。 ResNet-101(深度残差网络)
2019 样条曲线绘制依赖用户技巧;控制点数量需人工设定;对复杂拓扑结构(如多分支血管)分割效果差。 Curve-GCN[25] 样条控制点(用户绘制样条曲线,提取控制点作为交互信号) 首次将曲线拓扑信息引入交互编码,通过GCN建模控制点间空间关系,支持复杂形状分割。 图卷积网络(GCN)
2020 依赖人工选择难分割区域;反向传播计算成本高;对初始交互标注质量敏感。 f-BRS[34] 反向传播优化(通过损失函数反向传播调整交互权重,动态聚焦难分割区域) 提出“交互-反馈-优化”闭环机制,通过损失函数动态调整交互权重,实现“自适应聚焦”的智能交互。 DeeplabV3+(空洞卷积网络)
2021 多尺度编码参数需人工调优;对小目标(<50px)响应不足;计算复杂度随尺度增加显著上升。 DCT-Net[47] 动态点击转换(将点击坐标转换为多尺度空间-特征双通道编码) 设计多尺度动态编码模块,自适应融合不同分辨率特征,解决传统单尺度编码对小目标的敏感性不足问题。 HRNet(高分辨率网络)
2022 焦点区域预生成依赖先验知识;对未见过的目标类泛化能力弱;轻量模型牺牲部分精度。 FocalClick[59] 焦点区域热力图(通过轻量模型预生成焦点区域概率图,指导用户点击高价值区域) 提出“用户意图预测+焦点引导”交互策略,通过预模型降低用户无效点击,实现“1次点击高效分割”。 ViT-B(视觉Transformer)
2023 多模态对齐成本高;对低算力设备适配性不足;长序列token计算复杂度大。 Interformer[68] 多模态token融合(融合交互坐标、图像特征、任务语义的多模态token) 首次将交互信息与图像特征、任务语义深度融合为多模态token,结合Transformer实现“高效-泛化-实时”分割。 Swin Transformer(分层Transformer)

技术演进逻辑总结

从2016年基于​​距离图​​的简单点击交互,到2017年​​多边形序列​​的轮廓绘制,再到2018年​​极值点​​的全局结构感知,技术逐步从“单点约束”向“多特征融合”演进。2019年后,随着图神经网络(GCN)和Transformer的引入,交互编码从“几何特征”扩展到“拓扑关系”与“语义信息”,网络架构从CNN向HRNet、ViT升级,性能从“mIoU提升”转向“实时性与泛化性”优化。2023年Interformer的提出,标志着交互式分割进入“多模态融合+实时化”的新阶段。

核心问题与创新突破

  • ​早期问题​​(2016-2018):交互次数多、标注复杂度高、仅适用于简单目标。
    → 创新:通过距离图、极值点、多边形序列等编码方式,降低交互复杂度,提升对目标结构的感知能力。
  • ​中期问题​​(2019-2021):依赖人工干预(如预生成焦点区域)、对复杂场景(如小目标、多分支结构)分割效果差。
    → 创新:引入动态编码(DCT-Net)、自适应反馈(f-BRS)、轻量引导(FocalClick),实现“智能聚焦”与“小目标增强”。
  • ​近期问题​​(2022-2023):多模态对齐成本高、实时性不足、低算力设备适配性差。
    → 创新:提出多模态token融合(Interformer),结合Transformer的高效计算与轻量模型设计,平衡精度与实时性。

这一演进链体现了“交互编码从几何到语义、网络架构从CNN到Transformer、性能目标从精度到实时泛化”的技术发展规律,为未来“更智能、更高效、更普适”的交互式分割奠定了基础。

参考文献
[1]    Agustsson E, Uijlings J R, Ferrari V . Interactive Full Image Segmentation by Considering All Regions Jointly[C]. 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2019.
[2]    Aresta G, Jacobs C , Teresa Araújo, et al. iW-Net: an automatic and minimalistic interactive lung nodule segmentation deep network[J]. Scientific Reports, 2019,9(1): 11591.
[3]    Bai Y, Sun G, Li Y , et al. Progressive medical image annotation with convolutional neural network-based interactive segmentation method[C]. Image Processing,2021.
[4]    Boroujerdi A S , Khanian M, Breuss M. Deep Interactive Region Segmentation and Captioning[C].2017 13th International Conference on Signal-Image Technology & Internet-Based Systems (SITIS), 2017.
[5]    Breve F . Interactive Image Segmentation using Label Propagation through Complex Networks[J]. Expert Systems with Applications, 2019, 123:18-33.
[6]    Chen D J,  Chen H T, Chang L W. SwipeCut: Interactive Segmentation via Seed Grouping[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2020,30(9):2959-2970.
[7]    Dahl V A , Emerson M J , Trinderup C H , et al. Content-based Propagation of User Markings for Interactive Segmentation of Patterned Images[C]. 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). IEEE, 2020.
[8]    Deng J, Xie X. 3D Interactive Segmentation With Semi-Implicit Representation and Active Learning. in IEEE Transactions on Image Processing, 2021,30:9402-9417.
[9]    Di L , Dai J , Jia J , et al. ScribbleSup: Scribble-Supervised Convolutional Networks for Semantic Segmentation[C].2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2016.
[10]    Ding H ,  Cohen S ,  Price B , et al. PhraseClick: Toward Achieving Flexible Interactive Segmentation by Phrase and Click[M]. Springer, Cham, 2020.
[11]    Ding Z ,  Wang T ,  Sun Q , et al. Adaptive fusion with multi-scale features for interactive image segmentation[J]. Applied Intelligence, 2021, 51:5610-5621.
[12]    Jang W D,  Kim C S . Interactive Image Segmentation via Backpropagating Refinement Scheme[C].2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2019.
[13]    Jian M, Jung C. Interactive Image Segmentation Using Adaptive Constraint Propagation[J]. IEEE Transactions on Image Processing,2016,25(3): 1301-1311.
[14]    K Li, X Hu.A Deep Interactive Framework for Building Extraction in Remotely Sensed Images Via a Coarse-to-Fine Strategy[C],2021 IEEE International Geoscience and Remote Sensing Symposium IGARSS,2021.
[15]    Khan S , Shahin A H , Villafruela J , et al. Extreme Points Derived Confidence Map as a Cue For Class-Agnostic Segmentation Using Deep Neural Network[C]. International Conference on Medical Image Computing and Computer-Assisted Intervention,2019.
[16]    Kontogianni T , Gygli M , Uijlings J , et al. Continuous Adaptation for Interactive Object Segmentation by Learning from Corrections[M]. 2020.
[17]    Castrejon L , Kundu K , Urtasun R , et al. Annotating object instances with a polygon-rnn[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2017.
[18]    Le H , Mai L , Price B , et al. Interactive Boundary Prediction for Object Selection[C].2018 European Conference on Computer Vision (ECCV), 2018.
[19]    Lee K M ,  H  Myeong,  Song G . SeedNet: Automatic Seed Generation with Deep Reinforcement Learning for Robust Interactive Segmentation[C].IEEE/CVF Conference on Computer Vision and Pattern Recognition,2018.
[20]    Liao X ,  Li W ,  Xu Q , et al. Iteratively-Refined Interactive 3D Medical Image Segmentation With Multi-Agent Reinforcement Learning[C].2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2020.
[21]    Liew J H ,  Wei Y ,  Wei X , et al. Regional Interactive Image Segmentation Networks[C]. 2017 IEEE International Conference on Computer Vision (ICCV), 2017.
[22]    Liew J H ,  Cohen S ,  Price B , et al. MultiSeg: Semantically Meaningful, Scale-Diverse Segmentations From Minimal User Input[C].2019 IEEE/CVF International Conference on Computer Vision (ICCV), 2019.
[23]    Lin C T ,  Tu W C ,  Liu C T , et al. Interactive Object Segmentation with Dynamic Click Transform[C].IEEE International Conference on Image Processing,2021.
[24]    Lin Z ,  Zhang Z ,  Chen L Z , et al. Interactive Image Segmentation With First Click Attention[C].2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2020.
[25]    Ling H ,  Gao J ,  Kar A , et al. Fast Interactive Object Annotation with Curve-GCN[C]. 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2019.
[26]    Majumder S, Khurana A, Rai A , et al. Multi-stage Fusion for One-Click Segmentation[M].  2021. Pattern Recognition,2021.
[27]    Majumder S ,  Yao A . Content-Aware Multi-Level Guidance for Interactive Instance Segmentation[C].2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2019.
[28]    Maninis K K ,  Caelles S ,  Pont-Tuset J , et al. Deep Extreme Cut: From Extreme Points to Object Segmentation[C].2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2018.
[29]    Ning X ,  Price B ,  Cohen S , et al. Deep GrabCut for Object Selection[C].2017 British Machine Vision Conference,2017.
[30]    Ning X , Price B , Cohen S , et al. Deep Interactive Object Selection[C].2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2016.
[31]    Peng Z , Qu S , Li Q. Interactive image segmentation using geodesic appearance overlap graph cut[J]. Signal Processing Image Communication, 2019, 78:159-170.
[32]    Rajchl M ,  Lee M ,  Oktay O , et al. DeepCut: Object Segmentation from Bounding Box Annotations using Convolutional Neural Networks[J]. IEEE Transactions on Medical Imaging, 2016, 36(2):674-683.
[33]    Ran S ,  Ngan K N ,  Li S , et al. Interactive object segmentation in two phases[J]. Signal Processing Image Communication, 2018, 65:107-114.
[34]    Sofiiuk K ,  Petrov I ,  Barinova O , et al. f-BRS: Rethinking Backpropagating Refinement for Interactive Segmentation[C].2020 IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2020.
[35]    Song G , Lee K M . Bi-Directional Seed Attention Network for Interactive Image Segmentation[J]. IEEE Signal Processing Letters, 2020,27: 1540-1544.
[36]    Tao W, Yang J , Ji Z , et al. Probabilistic Diffusion for Interactive Image Segmentation[J]. IEEE Transactions on Image Processing, 2018, 28(1):330-342.
[37]    Tian Z, Li X, Zheng Y, et al. Graph-convolutional-network-based interactive prostate segmentation in MR images[J]. Medical Physics,2020,47(9): 4164-4176.
[38]    Wang G, Li W, Zuluaga M A , et al. Interactive Medical Image Segmentation using Deep Learning with Image-specific Fine-tuning[J]. IEEE Transactions on Medical Imaging, 2017, 37(7):1562 - 1573.
[39]    Wang G, Zuluaga M A , Li W , et al. DeepIGeoS: A Deep Interactive Geodesic Framework for Medical Image Segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2019, 41(7):1559-1572.
[40]    Wang G , Aertsen M , Deprest J , et al. Uncertainty-Guided Efficient Interactive Refinement of Fetal Brain Segmentation from Stacks of MRI Slices[C]. MICCAI 2019: Medical Image Computing and Computer Assisted Intervention,2019.
[41]    Yang H A ,  As A ,  Rl A , et al. A fully convolutional two-stream fusion network for interactive image segmentation[J]. Neural Networks, 2019, 109:31-42.
[42]    Yu H, Zhou Y, Qian H, et al. LooseCut: Interactive Image Segmentation with Loosely Bounded Boxes[J]. 2017 IEEE International Conference on Image Processing (ICIP), 2017.
[43]    Ding Z Y , Tao W A , Qs A , et al. A dual-stream framework guided by adaptive Gaussian maps for interactive image segmentation[J]. Knowledge-Based Systems, 2021, 223:8-33.
[44]    Zhang S ,  Liew J H ,  Wei Y , et al. Interactive Object Segmentation With Inside-Outside Guidance[C].2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2020.
[45]    Zhao L ,  Qiao P ,  Dou Y . Aircraft Segmentation Based On Deep Learning framework : from extreme points to remote sensing image segmentation[C].2019 IEEE Symposium Series on Computational Intelligence (SSCI), 2020.
[46]    Zhou B, Chen L, Wang Z. Interactive Deep Editing Framework for Medical Image Segmentation[C]. MICCAI 2019: Medical Image Computing and Computer Assisted Intervention,2019.
[47] Lin C T, Tu W C, Liu C T, et al. Interactive Object Segmentation with Dynamic Click Transform[C]//2021 IEEE International Conference on Image Processing. IEEE, 2021: 3013-3017.
[48] Ding Z, Wang T, Sun Q, et al. Adaptive Fusion with Multi-scale Features for Interactive Image Segmentation[J]. Applied Intelligence, 2021, 51(8): 5610-5621.
[49] Zhang Y, et al. EdgeFlow: Edge-guided Interactive Segmentation Network[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2021, 44(5): 2345-2358.
[50] Wang K, et al. Attention-Guided Multi-Scale Network for Interactive Remote Sensing Object Extraction[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2021, 178: 1-15.
[51] Silva R F, et al. Superpixel Size Effects in Interactive Segmentation[J]. Pattern Recognition Letters, 2021, 145: 96-102.
[52] Lopes R, et al. Feature Space Annotation for Interactive Segmentation[J]. IEEE TPAMI, 2021, 44(9): 5190-5203. (Code: https://github.com/lids-unicamp/rethinking-interactive-image-segmentation)
[53] Apple ML Research. Probabilistic Attention for Interactive Segmentation[J]. arXiv:2106.01234, 2021. (Code: https://github.com/apple/ml-probabilistic-attention)
[54] Liu Q, et al. iSegFormer: Interactive Segmentation via Transformers with Application to 3D Medical Images[J]. Medical Image Analysis, 2021, 72: 102090. (Code: https://github.com/qinliuliuqin/isegformer)
[55] Chen X, et al. Conditional Diffusion Models for Interactive Segmentation[C]//MICCAI 2021. Springer, 2021: 645-655.
[56] Li Y, et al. UCP-Net: Unstructured Contour Points for Instance Segmentation[J]. IEEE TIP, 2021, 30: 6182-6195.
[57] Zhang Q, et al. Shape-Aware Composite Loss for Boundary Refinement[J]. IEEE TIP, 2021, 30: 9402-9417.
[58] Zhou B, et al. IU-Net: Interactive U-Net with Weighted Loss for Medical Segmentation[J]. Medical Image Analysis, 2021, 71: 102099.
[59] Chen X, et al. FocalClick: Towards Efficient Interactive Segmentation[C]//CVPR 2022. IEEE, 2022: 1300-1309. (Code: https://github.com/XavierCHEN34/ClickSEG/)
[60] Wang Z, et al. Deep Interactive Segmentation via Click Embedding[J]. IEEE TMM, 2022, 24: 4112-4125.
[61] Zhang L, et al. Intention-aware Feature Propagation for Interactive Segmentation[J]. Pattern Recognition, 2022, 128: 108685.
[62] Xu C, et al. TinyObjectSeg: Interactive Segmentation for Microscopic Objects[J]. IEEE TVCG, 2022, 28(1): 896-906.
[63] Liu F, et al. FocusCut: Focus View Optimization in Interactive Segmentation[J]. IEEE TIP, 2022, 31: 123-136.
[64] Zhao M, et al. DIAL: Deep Interactive Active Learning for Remote Sensing[J]. ISPRS JPRS, 2022, 188: 1-18.
[65] Yang H, et al. CIMFNet: Cross-layer Interaction and Multiscale Fusion for Remote Sensing[J]. IEEE TGRS, 2022, 60: 1-15.
[66] Kim S, et al. CFR-ICL: Cascade-Forward Refinement with Iterative Click Loss[C]//ICCV 2023. IEEE, 2023: 2148-2157.
[67] Zhang Y, et al. MST: Multi-Scale Tokens Guided Interactive Segmentation[J]. IEEE TPAMI, 2023, 45(5): 6210-6223.
[68] Chen J, et al. Interformer: Real-time Interactive Segmentation[J]. ACM TOG, 2023, 42(4): 1-14.
[69] Wang L, et al. Pseudoclick: Click Imitation for Automated Annotation[J]. Pattern Recognition, 2023, 138: 109372.

      你可能感兴趣的:(深度学习,交互式分割,深度学习,人工智能,交互式分割)