index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html
![]()
DeepSeek发布了名为DeepSeek-OCR的新模型,它能够将大量文本信息压缩成图片形式存储,作为AI的“记忆载体”,大幅提升信息存储效率。与传统依赖文本Token的模型不同,DeepSeek-OCR利用视觉Token,在文档理解任务中展现出更高的效率和准确性,仅用十分之一的Token就能达到接近原模型的性能。该模型支持多种分辨率和压缩模式,并能识别和存储图像中的结构化信息,如Excel表格和分子结构。这一创新有望解决大模型训练中的数据瓶颈问题,并可能通过模拟人类遗忘机制来增强模型的上下文处理能力。模型整合了多项开源技术,代表了开源社区的集体智慧。
🖼️ **图片化信息存储提升效率与准确性**:DeepSeek-OCR模型引入了用图片(视觉Token)替代部分文本Token来存储信息的新方法。在文档理解任务中,它仅用100个视觉Token就超越了需要256个Token的GOT-OCR 2.0,并以不到800个视觉Token的代价,大幅优于平均需要6000+ Token的MinerU 2.0。这意味着模型能以更少的资源存储更多信息,并取得更佳的表达效果,为大模型训练带来效率革新。
⚙️ **灵活的文档处理与信息提取能力**:该模型支持多种分辨率和压缩模式,能够根据文档的复杂度动态调整视觉Token的使用量,从仅需64个Token的简单PPT到最多400个Token的复杂文档,甚至提供动态调整的Gundam模式。更重要的是,DeepSeek-OCR不仅能识别图片中的文字,还能将图表自动转化为Excel格式,或将有机化合物分子结构转化为SMILES格式,并同时记住图片位置及周围文字信息,捕获更多二维信息。
💡 **解决数据瓶颈与优化模型运行**:DeepSeek-OCR有望解决当前大模型训练面临的数据集稀缺问题,通过高效提取论文、图表等二维信息,为模型提供高质量训练数据。同时,用图像化方式存储数据能大幅压缩Token数量(可达十分之一),显著降低模型运行成本和计算量,缓解因上下文长度过长导致性能下降和成本飙升的问题,有望重塑大模型的上下文处理能力。
世超 2025-10-22 00:00 浙江

小更新都这么有趣,那 R2 不得。。。
DeepSeek 又整出新东西来了,只用到原本十分之一 token,就能存下几乎一样的文字信息,这压缩比,香农看了都要流泪,冯·诺伊曼看了都要沉默。更是直接把一堆老外给钓成了翘嘴。 昨天,DeepSeek 发布了新模型 DeepSeek-OCR,OCR 这东西咱们都熟悉,就是把图片里的文字给识别出来。经常用微信的差友应该知道,微信客户端里的图片,被咱们点开后,是可以直接复制文字的。没错,这就是一种 OCR 技术的应用。但是 DeepSeek 这次的 「技能 OCR」则是刚好相反,它可以把大量文字变成一张图片,作为 AI 的“记忆载体”。是的,用文字来存储信息,已经不够满足它了。过去的大模型,不管是什么 ChatGPT、Gemini、Llama、Qwen、还是 DeepSeek 过去的自己,在读取数据的用的都是一种方式:文字,也就是平时常说的 token。我们写的 Prompt,会被转换成一大堆的 token 给大模型,我们提供的参考资料,会被转换成一大堆的 token 给大模型,就算是能识别图像的多模态的大模型,也是要先把图片转换成了一段文字描述,来交给大模型来做辨认才行。但文字 token 真的就是大模型理解世界的唯一方式么?DeepSeek 决定试一试新的路子,毕竟,如果咱们把一张图片和一段文字放在一起,前者明显可以包含下更多的信息。比如这个描述,就不够全面既然如此,那我们能不能直接用图片来训练大模型?于是 DeepSeek 就开始整,结果发现这个用图片训练出来的模型,既中看,又中用。一方面,它可以用更少的 token,来记住更多的内容。在测试文档理解能力的任务里,DeepSeek-OCR 只用了 100 个视觉 token, 就超过了需要 256 个 token 的 GOT-OCR 2.0。再放狠点,它用 不到 800 个视觉 token, 就吊打了平均要 6000+ token 的 MinerU 2.0。
这就意味着、当我们让大模型开始使用图像的这种方式来记住数据了之后,模型就有能力用更少的token资源,来取得更好的表达效果。另外,DeepSeek-OCR 还支持多种分辨率和压缩模式,来适应不同复杂度的文档:比如说一张只有图片背景和标题文案的 PPT,可能只需要 64 个 视觉token 就足够表示了。如果这页的文字内容比较多,那就会自动切换到 Large 模式,用上最多 400 个 视觉token 来记录。如果觉得还不够的话,DeepSeek-OCR 还能支持动态调整的 Gundam 模式来记忆图片,主打一个应记就记,分清轻重缓急的记。而且比起过去只能识别文字的传统模型来说,DeepSeek-OCR 能记住的数据还会更多。论文里的一张柱状体,DeepSeek-OCR 能够自动把它给识别成 Excel 格式给保存下来。文章里出现的有机化合物的分子结构图片,也能自动转化为标准的 SMILES(简化分子线性输入规范)格式存储。不但能记住图片本身,DeepSeek-OCR 还会同时记住这张图片的位置,记住图片附近的文字在写些什么东西。。。过去很多看不到的二维信息,都会被 DeepSeek-OCR 给再次捕获。这玩意的价值有多大,可能大家一下都还没意识到。这两年做大模型,除了显卡不够之外的最大问题,就是没有训练的数据了。常规的数据集之前都用过了,想要再搞点高质量的数据集,要么偷偷去网上爬,要么花大价钱去买,再要么就是想办法自己合成。但现在,很多过去没采集到的数据,就可以在二维信息里被采集到了。就比如说很多论文文件,过去,大模型只能学到里面的文字信息,但是里面的各种图表,插图那都是两眼一摸黑。但用上了 DeepSeek-OCR 之后,就可以把之前缺的这部分给无痛补上了。实际上 DeepSeek 也是这么想的,在论文里还特意提了一嘴,说这个新模型在一张 A100 上,一天可以给大模型采集出 20 万页以上的训练数据。所以说,在有了 DeepSeek-OCR 之后,过去的所有数据都值得用它来再识别一遍。毫无疑问,这些数据,又会成为下一个大模型的养料。另一方面,用二维的方式来存储数据后,整个模型运行起来也变得更省资源了。咱都知道,我们在用大模型的时候,聊天聊的越久、上下文越长,这个模型就越容易出 bug。这是因为大模型在运行的时候,要处理每一个单词,和其他所有单词的关系。你把对话的长度增加一倍,整个模型的计算量就增加了四倍,增加了两倍,那整个模型的计算量就变成了原本的九倍。这也是为啥现在大模型厂商都在给你限制上下文长度的原因之一,你要是在一个对话里聊的太嗨了的话,成本要直接卷上天去了。而在用上了图像记忆之后,DeepSeek 可以把 token 的数量,压缩到原本的十分之一。。。同时,还不会让性能有太大的损失。在论文里可以看到,初出茅庐的 DeepSeek-OCR,就能用原本 1/10 的token 数量,达到原模型 96.5%的准确率。即使哥们再狠点,给它压缩个20倍,模型的准确率,也还能保持个六成左右。。。同时,DeepSeek 的研究人员还发现了一件好玩的事情。他们会感觉大模型通过不同的清晰度来存储图像的方式,其实和我们人类遗忘信息的方式很像。对我们人类来说,遗忘是一个循序渐进的过程。刚发生的事情,就有点像是 DeepSeek 用 Gundam 模式存下来的数据,最清晰。而随着时间的推移,这件事的重要性也会逐渐降低,存储它的格式也会从最大的 Gundam 一路降级,从 Large 一路降到最小的 Tiny,占用的 token 数量也会越来越少。把这个概念引入到大模型里的话,咱们就可以把最近的聊天记录,用“4K HDR蓝光” 的格式来存储,而那些早年不太重要的聊天记录,则是给压缩成 480P 的文件保存。通过这种主动遗忘的方式,是否能让大模型的上下文能力变得更强呢?这个想法很有意思,只不过目前就连 DeepSeek 自己也没能给出一个明确的答案。不过好在 DeepSeek-OCR 还是和过去一样开源的,相信这个问题,要不了多久就会变成热门,整出不少新东西来。最后,提到开源,我还注意到另外一件事。。。这次研究不但是 DeepSeek 自己的成果,也是开源社区集体的胜利比如训练数据里,用到了 华为的 Wukong 数据集,在生成样本文字时,借助了 百度的 PaddleOCR,而在图像特征提取部分,核心组件竟然是 Meta 开源的 SAM,在视觉语义理解层面,还整合了 OpenAI 的 CLIP 模型。正是这些来自全球的开源成果,被 DeepSeek 重新编织成了一个能“用图片思考”的 AI。所以,R2 什么时候会来呢。撰文:早起
编辑:江江 & 面线
美编:焕妍
图片、资料来源:DeepSeek 官网Bilibili、小红书

阅读原文
跳转微信打开