index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html
![]()
随着LLM的进步,出现了各种AI agent设计图和路线图,同时,实际在重新发现荣格八维(且易遗漏)。举例,现在的LLM原理很Si(例如attention=典型经验主义题海战术),通过堆Data涌现“类Ni”,再加CoT模仿“伪Ti”,再加RL做出“拟Fi”(RL=分好坏)。我的观点:LLM≈Si,LLM+Data≈Ni,LLM+Data+CoT≈Ti,LLM+Data+CoT+RL≈Fi,这就是为何目前的LLM+Data+CoT+RL有“似乎够了”的感觉。但是,真八维都很难做。真Si已难做(例如长期记忆),随后的真Ni,真Ti,真Fi更难做。先概述八维。荣格八维是荣格总结的8种认知功能(Se Si Ne Ni Te Ti Fe Fi)。流行的MBTI是它的衍生体系:先看最倾向的第一功能(有8种可能性),再选出一个i/e相反,SN/TF相反的第二功能(此时只有2种可能性),得到8x2=16种组合。在经典划分中,S和N是感知,T和F是判断。从最简角度,我认为,可称为S=具体,N=抽象,T=客观,F=主观。倾向于感知具体还是抽象?判断在自然状态从客观还是主观出发?这有4种组合,对应xSTx xNTx xSFx xNFx。从agent的角度,我的分类:Si=从physical data到latent model,涉及encoder,retriever等等,与memory有关(而Se涉及sensor、多模态、具身等等“外部具体”)。Ni=从latent model到neuro model,涉及predictor,generator等等,与world model有关(按本文的分类,Ne是“外部抽象”,涉及从外部来的纷杂信息,涉及探索)。Ti=从neuro model到symbolic model,涉及reasoner,verifier等等,与planner/solver有关(Te涉及active inference,“外部客观”)。常见agent设计就是拼接上述部分维度,例如下图:如前所述,常见设计易有遗漏,以八维作为出发点会更完整。例如,拼接前六维,LLM+多模态+具身+行动,Neuro+Symbolic,可以得到一个有用的工具机器人。Fi=什么?如果考虑Si Ni Ti Fi的逐级提升,Fi会是某种post-symbolic model。考虑到已有theory of mind这个概念,不妨称为mind model(可以无限套娃,higher-order intentionality)。Fi涉及目标函数,Fe涉及对齐和协作,这些都适合通过RL“自我提升”“自我发现”等等。mind model听上去玄,其实没什么,因为AI中的model都是严重缩水的。例如neuro model,听上去像要模拟神经元,结果,只是加减乘除sqrt exp之类的统计模型。例如symbolic model,听上去像要覆盖符号界,结果,充其量覆盖一些formal system和code。因此,自然语言中难以被形式化的事物,实际就已属于mind model的范畴。由于它的层次过高,用现有的neuro/symbolic/neurosymbolic都难精确处理(只能模拟),需要新的道路。有趣的是,常见AI研究者的愿望,也可以描述为:通过Si+Se涌现Ni(“加多模态数据得到世界模型”),通过Ni+Ne涌现Ti(“看各种视频发现物理规律”),通过Ti+Te涌现Fi(“加外部环境产生对抗/协作/语言”),通过Fi+Fe达成目标(“得到对齐的善良AGI”)。
💡荣格八维包含8种认知功能:Se Si Ne Ni Te Ti Fe Fi,MBTI是基于此衍生出的16种人格类型。从感知(S/N)和判断(T/F)角度,可简化为具体/抽象、客观/主观的组合。
🧠LLM目前的设计思路类似于荣格功能中的Si,通过大量数据堆叠和注意力机制(题海战术)实现功能涌现。Ni、Ti、Fi等功能的模拟则需要引入CoT、RL等技术。
🤖常见的AI agent设计易遗漏部分维度,以荣格八维为基础设计更完整。例如,将LLM、多模态、具身、行动、神经、符号等维度拼接,可构建实用工具机器人。
🧠Fi被认为是post-symbolic model,类似于mind model,涉及目标函数和对齐协作,适合通过RL进行自我提升和自我发现。由于AI中的模型都是简化的,自然语言中难以形式化的事物属于mind model范畴。
🔬现有neuro/symbolic/neurosymbolic模型难以精确处理mind model,需要新的研究道路。AI研究者的愿望可以通过Si+Se→Ni,Ni+Ne→Ti,Ti+Te→Fi,Fi+Fe→AGI的路径实现。
PENG Bo 2025-08-14 14:06 广东

💡Tips转自知乎用户 PENG Bo,原文链接:https://zhuanlan.zhihu.com/p/1930579168778773896
随着LLM的进步,出现了各种AI agent设计图和路线图,同时,实际在重新发现荣格八维(且易遗漏)。
举例,现在的LLM原理很Si(例如attention=典型经验主义题海战术),通过堆Data涌现“类Ni”,再加CoT模仿“伪Ti”,再加RL做出“拟Fi”(RL=分好坏)。我的观点:LLM≈Si,LLM+Data≈Ni,LLM+Data+CoT≈Ti,LLM+Data+CoT+RL≈Fi,这就是为何目前的LLM+Data+CoT+RL有“似乎够了”的感觉。但是,真八维都很难做。真Si已难做(例如长期记忆),随后的真Ni,真Ti,真Fi更难做。先概述八维。荣格八维是荣格总结的8种认知功能(Se Si Ne Ni Te Ti Fe Fi)。流行的MBTI是它的衍生体系:先看最倾向的第一功能(有8种可能性),再选出一个i/e相反,SN/TF相反的第二功能(此时只有2种可能性),得到8x2=16种组合。在经典划分中,S和N是感知,T和F是判断。从最简角度,我认为,可称为S=具体,N=抽象,T=客观,F=主观。倾向于感知具体还是抽象?判断在自然状态从客观还是主观出发?这有4种组合,对应xSTx xNTx xSFx xNFx。从agent的角度,我的分类:Si=从physical data到latent model,涉及encoder,retriever等等,与memory有关(而Se涉及sensor、多模态、具身等等“外部具体”)。Ni=从latent model到neuro model,涉及predictor,generator等等,与world model有关(按本文的分类,Ne是“外部抽象”,涉及从外部来的纷杂信息,涉及探索)。Ti=从neuro model到symbolic model,涉及reasoner,verifier等等,与planner/solver有关(Te涉及active inference,“外部客观”)。常见agent设计就是拼接上述部分维度,例如下图: 如前所述,常见设计易有遗漏,以八维作为出发点会更完整。例如,拼接前六维,LLM+多模态+具身+行动,Neuro+Symbolic,可以得到一个有用的工具机器人。Fi=什么?如果考虑Si Ni Ti Fi的逐级提升,Fi会是某种post-symbolic model。考虑到已有theory of mind这个概念,不妨称为mind model(可以无限套娃,higher-order intentionality)。Fi涉及目标函数,Fe涉及对齐和协作,这些都适合通过RL“自我提升”“自我发现”等等。mind model听上去玄,其实没什么,因为AI中的model都是严重缩水的。例如neuro model,听上去像要模拟神经元,结果,只是加减乘除sqrt exp之类的统计模型。例如symbolic model,听上去像要覆盖符号界,结果,充其量覆盖一些formal system和code。因此,自然语言中难以被形式化的事物,实际就已属于mind model的范畴。由于它的层次过高,用现有的neuro/symbolic/neurosymbolic都难精确处理(只能模拟),需要新的道路。有趣的是,常见AI研究者的愿望,也可以描述为:通过Si+Se涌现Ni(“加多模态数据得到世界模型”),通过Ni+Ne涌现Ti(“看各种视频发现物理规律”),通过Ti+Te涌现Fi(“加外部环境产生对抗/协作/语言”),通过Fi+Fe达成目标(“得到对齐的善良AGI”)。关注我们:
阅读原文
跳转微信打开