机器之心 10月30日 15:05
格灵深瞳RICE视觉模型刷新多项任务表现
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

格灵深瞳公司灵感团队自主研发的视觉基础模型RICE(MVT v1.5)在多项视觉任务上取得了优异成绩,并在ICCV25会议上获得Highlight荣誉。RICE模型延续了MVT系列在视觉预训练上的理念,特别关注“margin表征代表语义”的核心观点,并从人脸识别技术中汲取灵感,致力于提升视觉模型对海量数据的语义表征能力。新一代模型RICE通过区域级对象学习和字符块兼容,显著增强了图像内部视觉特征的差异性,在检测、多模态分割、视频追踪及问答等任务上均展现出领先优势,为未来的视频编码工作奠定了基础。

✨ **RICE模型的创新与突破:** 格灵深瞳的RICE(MVT v1.5)作为MVT系列的最新力作,继承并发展了前代模型在视觉预训练上的核心思想,尤其是在“margin表征代表语义”的理念上。模型通过对图像进行区域级对象搜索和特征提取,并兼容字符块信息,有效提升了模型对图像内部视觉元素差异化的表征能力,这使得模型在理解和处理图像信息时更加精细和全面。

🎯 **多任务赋能与卓越表现:** RICE模型在多项下游视觉任务中展现了强大的泛化能力和领先性能。在目标检测任务上,它在COCO、LVIS以及Roboflow100等数据集上取得了SOTA(State-of-the-Art)级别的结果。此外,在多模态分割、视频追踪和多模态问答等任务中,RICE作为视觉编码器,均带来了显著的性能提升,特别是其对OCR任务的良好兼容性,使其在多模态模型中表现尤为突出。

💡 **从图像到视频的未来展望:** RICE模型的成功不仅体现在当前多项视觉任务上的优异表现,更预示着MVT系列在视频编码领域的未来发展方向。团队已宣布将启动MVT v2.0,专注于视频编码工作,认为视频作为真实世界的动态记录,蕴含着巨大的信息宝藏,是通往AGI(通用人工智能)的关键。MVT系列将继续秉持差异化语义表征的路线,力求在视频编码领域开创新的SOTA。

🧠 **借鉴人脸识别的语义表征之道:** MVT系列模型的开发灵感来源于格灵深瞳在人脸识别领域的深厚积累。团队深刻理解到,视觉知识的语义表征如同识别不同人脸,关键在于充分区分不同语义之间的差异。通过将这种对差异化表征的认知应用到通用视觉模型预训练中,使得下游任务和大型语言模型(LLM)能够更轻松地识别和对应这些差异化的视觉语义信息。

2025-10-29 15:20 北京

格灵深瞳公司灵感团队视觉基础模型RICE(MVT v1.5)刷榜多项视觉任务。

最近,格灵深瞳公司灵感团队自研的视觉模型基座RICE(MVT v1.5)再次惊艳全场,刷榜多项视觉任务。

RICE 作为 MVT 系列的新模型,继续延续前作 Unicom(MVT v1.0)和 MLCD(MVT v1.1)的视觉预训练理念,秉持着 margin 表征代表语义的核心观点,在顶级学术会议 ICCV25 上获得 Highlight 荣誉。

MVT 系列作为灵感团队自研的视觉基座预训练方法,从 1.0 开始,就聚焦于如何让视觉模型利用海量的数据集进行更加准确的视觉语义表征。MVT 系列灵感来自于格灵深瞳公司的顶尖技术 —— 人脸识别算法,得益于在人脸识别领域积累的大量训练经验和视觉表征认知。

团队深刻认识到,视觉知识就像不同的人脸一样,名字只是赋予的人为语义,只要能充分做到不同语义之间的差异化表征,即可做到让各种下游任务以及 LLM 轻松识别这些差异化表征与人类认知之间的对应关系。

基于此思路,MVT v1.0 成功站在巨人的肩膀上,利用当时最先进的 CLIP 预训练模型为海量图文数据进行特征提取。再利用 kmeans 算法,将所有的特征聚类为一百万个不同类别,并为图片进行打标。MVT v1.0 在图片分类、检索等不同领域均获得了 SOTA 级别的表现。

MVT v1.0 方法中的每个样本的学习其实是基于超大规模的数据集总结出来的,超越了 CLIP 这类方法的 batch 类差异化学习的限制。

灵感团队继续研究发现对图像赋予单一的标签,可能会将一些其他正确的标签被当成负样本学习 —— 人类对于事物的认知是多样的。基于此思想,团队推出 MVT v1.1 的工作,给每张图像分配 top-k 个软标签,进一步提高视觉基座对图像编码的语义丰富性。

新一代视觉模型基座 ——RICE

本次的 MVT v1.5——RICE 是沿着前作思想,并进一步洞悉图像语义组成方式的又一力作。

团队研究发现一张图片的信息往往是多种无 / 弱关联视觉元素拼接而成,直接对图片内的不同视觉元素进行监督可能更加符合人类对于图片信息的处理,也能进一步成为目标检测、分割等下游任务更好的基座视觉模型。除此之外,图片中存在的字符块也被此框架所兼容,其字符本身即为该区域图片的语义信息。

为此,团队使用 SAM 对潜在的区域级对象进行了搜索,并对整个数据集中的区域级对象进行特征提取和聚类,最终从 400M 的图像中得到 2B 个图像区域级对象,并聚类为一百万个区域级语义类别标签。针对图像字符块,团队使用 PaddleOCR 从 50M 图片中提取出 400M 的字符级别候选区域,使用字符直接作为类别标签。

在训练过程中,每张图片有大约 10 个区域级对象需要进行学习,团队提出一种 Region Attention Layer 模块用于加速模型训练。模型主体部分 ——Encoder 使用经典的 ViT 结构,对于最后一层的视觉特征图则使用 mask 机制对属于同一对象的视觉特征进行提取,完整图片的 class embedding 作为 Q 对区域级别的视觉特征进行 QKV 注意力计算,得到该区域的 Region Class Embedding 作为区域类别语义进行分类损失计算。

相比于 MVT v1.1 这类以全图语义信息编码的训练方法,RICE 在训练过程中,图片内部的视觉特征差异性得到了有效的提升。这表明随着训练的进行,视觉编码器对于图片内部元素的语义表征变得更加丰富。

完备实验验证

RICE 作为新的视觉基座,在多种不同的下游任务上进行了充分的实验验证。

检测任务

RICE 不仅在经典的 COCO 和 LVIS 任务上验证了检测任务上的 Linear Prob 能力,还在包含了 100 种不同场景检测任务的 Roboflow100 上进行了与其他先进的视觉基座进行了公平比较。针对区域级别语义学习的预训练方法,让 RICE 在这类任务上有着得天独厚的优势,在几乎所有指标上获得了最好的结果。

多模态分割任务

多模态分割任务作为多模态领域重要的方向之一,RICE 使用经典的 LLaVA 系列多模态框架,使用 LISA 方法进行训练,在 refCOCO 系列的所有子集上均获得了显著的提升。

视频追踪任务

尽管 RICE 是基于图片进行训练的,但其 ROPE 的位置编码方式以及跨图片的区域级对象聚类方法,使得 RICE 可以接收不同尺寸的视频输入,并对于不同视频帧中的相同目标进行持续追踪。RICE 在 4 个不同的视频追踪相关任务上均获得了领先表现,从特征降采样后的可视化效果来看,模型能够很好的对不同帧中的同一类别物体进行持续追踪。

多模态问答任务

多模态模型是现在视觉基座模型的兵家必争之地。在 LLaVA 系列的主流训练架构中,使用 RICE 作为视觉编码器在多个基准测试上获得了更好的效果。尤其是得益于其在预训练方法可以无缝兼容光学字符识别,使得基于 RICE 视觉基座的多模态模型在 OCR 相关任务上获得了显著的优势。下表源自 LLaVA- OneVision-1.5 技术报告:

最近,RICE 被作为 LLaVA-OneVision-1.5 的视觉编码器,助力其成为和 Qwen2.5-VL 系列可比的全开源的卓越工作。

结论

RICE 作为格灵深瞳公司 MVT 系列的又一力作,在多个层面上展现了他们对于视觉预训练的深刻理解与洞察。RICE 的成功证明了:视觉语义信息在学习时应当注重差异化,可以保证不同下游任务轻松区分并快速识别不同的语义信息;图片中的视觉元素很多的时候是无 / 弱关联,因此区域内的视觉元素学习能够更好的完整表征图片信息。

下一步,MVT 系列即将开启 v2.0—— 视频编码工作,图像是对当前场景的一个静态帧,视频则是对真实世界的直接记录。视频中有大量的信息可以挖掘,是通往 AGI 之路的金矿山。MVT 将继续沿着前作的差异化语义表征的路线,开启视频编码时代的下一个新 SOTA!

© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

格灵深瞳 RICE MVT v1.5 视觉模型 AI 计算机视觉 预训练模型 DeepGlint vision model AI computer vision pre-trained model
相关文章