实验室陈鹏飞同学提交的论文SAM-CP: Marrying SAM with Composable Prompts for Versatile Segmentation近日被国际顶尖学术会议ICLR 2025录用。 最近的 Segment Anything 模型 (SAM) 已成为一种新的典型视觉基础模型,其分割万物的能力可以把图像中其认为的有物理意义的基本单元分割出来。但由于其过分割问题和缺乏语义判别能力,SAM不能直接用来实现按需的语义实例分割。 在该研究中,陈鹏飞同学提出了一个新颖的框架SAM-CP,其提出两个可组合的Prompts,其一判断任意SAM分割的碎块是否与某一文本标签对齐来实现语义分类,其二判断任意两个SAM碎块是否在某一文本标签下属于同一个实例来实现实例区分。并且,借助于CLIP这样的视觉语言基础模型,SAM-CP在包括 COCO, ADE20K和Cityscapes在内的基准测试中表现出卓越的开域和闭域的全景分割性能,与之前最先进的方法相比具有很强的竞争力。 Vision Group@UCAS成立于2019年,是一支专注于机器学习、图像和视频处理及计算机视觉等领域的研究团队,尤其专注于基于点标注与多源信息融合的弱小目标感知。实验室承担了多个重要项目,包括国家自然科学基金项目、航天科工及华为公司等单位课题,致力于推动计算机视觉技术的创新与发展。
@
2021 .