DeepSeek 09月25日
DeepSeek-VL2开源,视觉模型迈入MoE时代
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

DeepSeek-VL2模型正式开源,采用MoE架构和动态切图技术,视觉能力大幅提升。支持视觉定位、梗图解析、OCR、故事生成等任务,拥有更丰富的训练数据和多尺寸模型选项。模型在各项评测中表现优异,展现强大的视觉理解与生成能力。

🎯 DeepSeek-VL2引入MoE架构和动态切图技术,视觉能力在多项任务上实现显著提升,包括视觉定位、梗图解析、OCR和故事生成。

📚 模型训练数据量比上一代DeepSeek-VL增加一倍,并引入了梗图理解等新能力,大幅增强了模型的视觉理解范围。

🖼️ DeepSeek-VL2支持动态分辨率图像处理,最多支持1152x1152分辨率和极端长宽比(1:9或9:1),适应更多应用场景。

📊 模型在各项评测指标上表现优异,展现出强大的视觉理解和生成能力,为视觉模型发展树立新标杆。

🌐 DeepSeek-VL2提供多种模型尺寸选项(3B、16B、27B),用户可根据需求选择不同性能和资源占用平衡的版本。

原创 深度求索 2024-12-13 20:14 北京

视觉模型迈入 MoE 时代

视觉模型迈入 MoE 时代
阔别九月,大家期待的 DeepSeek-VL2 终于来了!DeepSeek-MoE 架构配合动态切图,视觉能力再升级。从视觉定位到梗图解析,从 OCR 到故事生成,从 3B、16B 再到 27B,DeepSeek-VL2 正式开源。模型亮点数据:比一代 DeepSeek-VL 多一倍优质训练数据,引入梗图理解、视觉定位、视觉故事生成等新能力架构:视觉部分使用切图策略支持动态分辨率图像,语言部分采用 MoE 架构低成本高性能训练:继承 DeepSeek-VL 的三阶段训练流程,同时通过负载均衡适配图像切片数量不定的困难,对图像和文本数据使用不同流水并行策略,对 MoE 语言模型引入专家并行,实现高效训练

模型和论文均已发布:

模型下载:https://huggingface.co/deepseek-ai
GitHub主页:https://github.com/deepseek-ai/DeepSeek-VL2

测评结果

DeepSeek-VL2 模型展现出了符合我们预期的强大能力,在各项评测指标上均取得了极具优势的成绩:

案例展示动态分辨率支持DeepSeek-VL2 仅使用一个 SigLIP-SO400M 作为图像编码器,通过将图像切分为多张子图和一张全局缩略图来实现动态分辨率图像支持。这一策略使得 DeepSeek-VL2 最多支持 1152x1152 的分辨率和 1:9 或 9:1 的极端长宽比,适配更多应用场景。图表理解更多科研文档数据的学习使得 DeepSeek-VL2 可以轻易理解各种科研图表。Plot2CodeDeepSeek-VL2 同时具备图像理解和代码生成的功能,可以作为你逆向画图的好帮手。

Prompt: Draw a plot similar to the image in Python.

梗图识别更大规模的训练数据赋予了 DeepSeek-VL2 解析各种 Meme 的能力,有时它甚至懂得比你还要多。Visual Grounding大模型的能力绝不仅限于封闭类别的物体识别。

Zero-shot grounding:你可以用任意的自然语言进行描述,然后让 DeepSeek-VL2 帮你在图像里找到符合描述的部分(注:模型本身只是输出相应物体的边界框,而不会直接在原图上绘制边界框,下同)。例如,DeepSeek-VL2 可以在下图里找到 "DeepSeek Whale" (DeepSeek 吉祥物虎鲸):
In-context grounding:你也可以给 DeepSeek-VL2 一个示例,让它有样学样:

Prompt: <|grounding|>In the first image, an object within the black ellipse is highlighted. Please locate the object of the same category in the second image. (在第一张图中有一个物体被黑色椭圆包裹住。在第二张图中找到同类别的物体。)

Grounded conversation:视觉感知+语言推理,强强联手成就模型的视觉语义对话能力。如果你拿着下图问模型 “If you feel hot, what will you do?(如果感觉热,你会怎么做?)”,它会回答:“To cool down, you can use <|ref|>the fan<|/ref|><|det|>[[166, 460, 338, 712]]<|/det|> which is sitting on the desk.(为了降温,你可以使用 [[166, 460, 338, 712]] 位置处的风扇,它放在桌子上)”Visual Storytelling你也可以输入多张图像,让模型把它们串联起来,形成一个小小的童话故事。视觉模型的未来视觉是人类获取外界信息的主要来源,占据所有信息量的约 80%。然而在大模型时代,视觉方面的进展却远远落后于语言模型。我们坚信,提升模型视觉能力的意义不仅在于支持更多的输入模态,更在于全方位提升模型的感知和认知能力。欢迎加入 DeepSeek,和我们一起探索 AGI 的星辰大海。
—— End ——


阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

DeepSeek-VL2 视觉模型 MoE架构 动态切图 开源模型
相关文章