数字生命卡兹克 09月12日
小模型在工业场景中的实用价值
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

刘聪在NLP领域分享了对小模型(如0.6B)实用性的观点。他认为,尽管小模型在智能性上不及大模型,但在许多工业场景中却非常实用。例如,在高并发的搜推场景中,小模型能在100ms内完成任务,而大模型则因资源限制难以使用。此外,小模型在格式转换、轻量信息抽取等任务中也能胜任,且成本更低。刘聪强调,小模型应作为辅助工具,与大模型协同工作,大模型负责复杂任务,小模型处理高并发任务,这才是落地的必然路径。

🔧 在高并发的搜推场景中,小模型(如0.6B)能在100ms内完成任务,而大模型因GPU资源限制难以使用,小模型成为理想选择。

💡 小模型在格式转换、轻量信息抽取等任务中完全胜任,例如用0.6B模型微调处理长期任务,只需24G卡和少量资源即可,成本远低于使用GPT4o等大模型。

🤝 小模型不应取代大模型,而是作为辅助工具协同工作。大模型负责复杂任务,如总工程师,小模型处理高并发任务,如流水线工人,实现大小模型协同的落地应用。

⚡ 小模型在成本和效率上具有优势,尤其在信息安全、资源节约方面。例如,用GPT4o提取日志信息不仅成本高昂,还涉及信息安全问题,小模型则能更经济高效地完成任务。

📈 英伟达的论文《Small Language Models are the Future of Agentic AI》也支持小模型的重要性,指出在Agent时代,上下文工程和资源节约是关键,小模型在这方面更具优势。

2025-08-26 09:03 北京

看到刘聪NLP的一个关于小模型的观点和内容,我觉得很实战,也非常的受用。所以也分享给大家:

“起因是有个群友想做一个工单意图分类,但是没有资源,问怎么办?

我直接让他ollama cpu部署一个0.6的qwen3模型,类别不多的情况下,应该没有问题,

然后就受到了其他人的灵魂拷问,现在0.6B模型还能干啥,一点都不智能,根本没法用。

我当时内心太感慨了,BERT刚刚出来0.1B,还在调LSTM和TextCNN的我,像是见到了庞然大物。

时隔几年,0.6B的模型,貌似已经不配出现在大家视野中了。

但事实是怎样的呢?

论智能,0.6B模型是不行的,比如你跟他聊天,你会感觉它有点呆,但在很多工业场景,0.6B还是很实用的,

高并发的搜推场景,很多模块只给你100ms的时间优化,你根本没法用太大的模型,但又想提取一些特征,那么0.6B就是极好的选择。

像7B这种,你咋用,GPU资源直接给你拉爆,更别说更大的模型了。

还有就是一些格式转换、轻量信息抽取的任务,以现在的0.6B模型完全可以胜任,为什么又要上更大的模型呢?

之前实习生用GPT4o提取日志信息,当时被我说了,不光光是信息安全的问题,就是这成本花费,真不值呀,有钱要使在刀刃上~

还有现在的开源模型,都会训练json格式的问题,如果真是一个长期的任务,完全可以收集数据、微调一个模型,0.6b,24G卡绰绰有余了吧,

租个3090,现在微调框架这么多,基本上都是傻瓜操作。

还有就是前几天,英伟达的一篇论文也是蛮火的,《Small Language Models are the Future of Agentic AI》

也就是小的LLM是Agent的未来,感兴趣的可以去看看,核心观点,就是太大的模型做很多内容成本太高,没有必要。

Agent时代,上下文工程为什么那么火,提高整体智能性是一点,还有就是如何节约成本,当时Manus分享的几点,大多数都是教你,如何命中kv cache,节省tokens的。

所以,小模型不是没有意义,要看你在哪个地方使用它。它的定位也从来不是取代谁,你要用它来作为辅助,哪里需要哪里搬。

我还是那个观点,真正的智能系统,一定是大小模型协同,两者搭配,大模型做复杂的总工程师,小模型做高并发的流水线工人。

这才是走向落地的必然路径。”

数字生命卡兹克

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

小模型 工业场景 实用性 协同工作 大模型
相关文章