Vision Group一篇论文被ICLR2024录用

       中国科学院大学视觉实验室硕士研究生王子鹏同学在计算机视觉领域取得了令人瞩目的成果!的论文《P2Seg: Pointly-supervised Segmentation via Mutual Distillation》近日被国际顶尖学术会议ICLR2024录用,为点监督实例分割技术的发展带来了新的启示。

       实例分割作为计算机视觉领域的重要研究方向,一直在不断探索与发展。然而,现有的点监督实例分割方法通常依赖于位置信息来区分对象,但由于缺乏轮廓注释,预测精确的边界仍然具有挑战性。在这个挑战性问题上,王子鹏同学利用弱监督语义分割方法擅长利用同一语义区域内的类内特征一致性来捕捉边界轮廓优势,提出了一种全新的基于互蒸馏的方法。

       在论文中,王子鹏同学设计了一种互蒸馏模块 (Mutual Distillation Module, MDM),以利用实例位置和语义信息的互补优势,实现准确的实例级对象感知。互蒸馏模块包括语义到实例 (Semantic to Instance, S2I) 和实例到语义 (Instance to Semantic, I2S)。S2I 由语义区域的精确边界引导,以学习注释点与实例轮廓之间的关联。I2S 利用实例间的区别性关系,帮助在语义图中区分不同对象。

       Vision Group@UCAS成立于2019年,是一支专注于机器学习、图像和视频处理及计算机视觉等领域的研究团队,尤其专注于基于点标注与多源信息融合的弱小目标感知。实验室承担了多个重要项目,包括国家自然科学基金项目、航天科工及华为公司等单位课题,致力于推动计算机视觉技术的创新与发展。