虎嗅 10月03日
AI缺乏主体性,难以真正理解人类需求
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

文章探讨了当前AI是否具备主体性(agency)的问题,并指出AI的“代理”概念与自动化有本质区别,前者需要方案制定,后者仅需执行。AI在知识和执行力上有所欠缺,但更深层的原因在于其无法理解人类自身未意识到的需求。文章通过生活化场景对比AI与人类伴侣在理解需求上的差异,强调了主体性源于生命系统对外界环境的动态反馈,而非静态设定。目前的AI,即使如ChatGPT,也只能通过预设指令挖掘明确需求,缺乏真正的主体性,这导致用户体验的局限性,创业者不应过度期待AI的“拟人化”能力。

AI缺乏真正的主体性(agency),无法像人类一样自主制定解决方案。与自动化仅执行既定指令不同,AI Agent的核心价值在于“想出解决方案”,这需要更深层次的理解和创造力。

AI难以理解用户自身未意识到的需求,这是其与人类核心区别。人类的情感、潜意识想法和价值观是AI难以捕捉的,而这些往往是驱动行为的关键,尤其在服务型行业中,如健身教练或律师,需要深入洞察用户根本需求。

AI的主体性是静态的、由开发者预设的,而人类的主体性是动态的、受环境影响的反馈过程。例如,当一个人表达想吃某种食物时,人类伴侣会通过追问、安慰、提供建议等方式进行动态互动,而AI则倾向于将需求转化为可执行的静态目标。

当前AI技术在模拟动态主体性上存在局限,尽管可以通过调整参数来模仿,但用户体验仍是“与知识渊博的随机盒子对话”。AI的“拟人化”目标在当前技术前提下难以实现,创业者应聚焦于AI在特定环节的专业辅助作用,而非过度期待其全面自主性。

AI 有主体性吗?没有。

主体性的英文叫做 agency,另一个比较流行的 buzzword 是 AI Agent. It's cool and catchy. I understand why people like it, especially for those whose career and fortune lies on the story weaved by which. 

Agent 最核心的隐含意义是某物能自主采取行动 towards a target。代理机构也叫做 agent,因为你只需要给它一个目标,say 找个律师帮忙搞定分遗产给私生子的事情,代理机构就会站在客户的角度来帮助客户达成目标。

这和 Automation 自动化的区别在于:自动化是客户已经有了解决方案,只要去执行,agent 是只有目标,需要代理结构帮助置顶方案然后再去执行。可以看出来 agent 至少一多半的主要价值锚定于 come up with the solution。

代理机构为什么能干得好?1. 有更丰富的知识,2. 有执行能力,3. 通过沟通能够非常深入地了解用户。

前两点非常直白,第三点是我感兴趣的地方。妄想一个 know-it-all 的 AI 应用程序就能够完美解决你的问题吗?这是个很容易跑进脑子的妄想点子。我觉得现在的 AI 技术不能达到的原因,不在于知识和执行能力,更不在于知道客户知道的所有信息,而在于:知道用户自己不知道的东西

乍一看这个结论莫名其妙。你看书的时候是否有过这种感觉:一本评价很高的书不是告诉你一大堆你不知道的东西?而是通过描述和对话“勾”起了你本身就有的一些感受、想法、情绪,然后通过作者勇敢展示自己主体性的行为或者通过虚构的主人公的故事,把你原本有的感受、想法、情绪,澄清了、加强了、坚定了。

我不知道你是否能理解上面这一段。举个例子来讲,就是你不会共情母螳螂在交配后会吃掉公螳螂的事实,但是会共情发生在各个时代、各个国家、各个语言文化中有关勇气、爱情、亲情、牺牲......这些主题的故事。It's not because you're brainwashed by the story. They're already in you. Arts just invoke it, visualize it.

这种共鸣的产生是关键,尤其是在服务行业。

如果一个是给每个人都提供同样训练计划的健身教练,另一个是知道了你健身背后的情感和理性目的是摆脱身体疲劳,从而给你量身定制健身计划的教练,你一定会选第二个。

律师、秘书、财富管理……这些都是需要非常深入洞察客户根本需求的行业。而常见的行业中哪怕是用上一点客户沟通的技巧,也会让销售从冷冰冰的卖点介绍变成像 Apple 一样的解决方案销售、身份销售。Just like what I was told, the key of saling Microsoft enterprise solution is to sale the peace of mind.

就这,人做得到,AI 做不到。至少现在这个 perdicting machine 不可能做到。为什么?

虽然像沟通技巧、缺乏对人类场景和社会身份的理解、自己展现主体性会鼓励对方表达......这些原因我也觉得很重要,但是这些原因从模型之外的工程上花了功夫也能解决。最深刻的为什么 AI 做不到的原因,其实就是 AI 没有主体性,而主体性并不是一个静态的目的,而是生命系统对于外界环境的动态反馈。

举个例子:

你突然想吃地中海沙拉。

如果有任何 AI 应用程序,它会规定一个静态的目标:帮用户做一份地中海沙拉的制作教程。On top of that, 如果这是一个烹饪细分市场的 app,它会给用户推荐其他的沙拉教程、美食教程,这些额外功能的主体性是软件开发者通过编写 prompt 和设计固定的执行逻辑的时候放进去的。

但是如果我们告诉我们的另一半,今晚想吃地中海沙拉,会发生什么?

如果另一半不常吃沙拉,那么他会诧异你今天的反常,然后开始问为什么,尝试理解你背后行为的动机。这可能会花点时间,因为清楚表达需求就是个极难的事情。好不容易理解到了,原来是今天在抖音上看到了糖尿病的视频,对自己的体重和健康产生了焦虑。那么另一半有可能会先放下吃什么,先安慰;也有可能会用专业的知识告诉你其实光吃沙拉对你现在的健康也不是最好的选择,然后建议了一个又能满足食欲、还算健康的餐厅;也有可能一起焦虑,然后脑袋一热,和你一起制定了减肥计划……

这就是主体性。为什么另一半有那么多种可能性?因为这些反应会由他所处于的当时的环境反映到的身体上的情况而决定。

那如果你问 ChatGPT 同样的问题,它会怎么回答?下面是我的 ChatGPT 的回答:

“你是想让我帮你找一个地中海沙拉的食谱,还是推荐上海附近哪里能买到/点到好吃的地中海沙拉?”

ChatGPT 已经做得很不错了。它在 poke my expression,它在尝试挖掘我更加具体和明确的指令,把需求变成一个它可以执行的明确的“静态目标”。

这一层挖掘行为本身就是 OpenAI 在产品层面通过 “You‘re a helpful assistant.” 这样的 prompt 加进去的。

然而,让我们沮丧的是两个事实:

1. 用户不擅长于表达需求。人类喜欢被引导、被鼓励、被共情、被勾引……

2. 如果要让类似这种挖掘行为深入,就要人为不断添加预设的静态目标。即使是这样,也无法做到动态主体性。

顺便一提,或许你觉得改变 top_p and temperature 就能模拟这种动态主体性。你可以想象一下和同一个人聊天,每次对方回复的时候,虽然他知道对话历史,但是他的人设都会完全刷新一下。

这就是我们对 AI 应用感到失望的原因:我们对 AI 期待得很高,希望它有一个动态的、持久的主体性,但是现实却是每次都感觉像是在和知识渊博的随机盒子对话。创业者们在自动化、知识面、模拟对话策略等方面都铆足了功夫,也只能在单一、简单场景实现“还算能用、比没有强”的感觉。但绝对谈不上惊喜。而且这种失望,用得越久、积累越多。

市场对 AI 的反馈也是真实的。“全能”不是现在的 AI 最常被提起的印象。现在能称之为好用的 AI 应用,用户的感觉应该是:在某个我要做的事情上,有一个环节我急需要 AI 插手进来,用专业能力帮我一下,然后剩下的我来就行了,要交给 AI 也要调教超久,调教了还调教不好。

Agency,is not a feature. It's the emergence phenomenon of life. 对于现在的 AI 技术来讲,这太远了。要实现这个,从还原、而不是模拟的思路去设想的话,首先要构建反馈回路。这完全不是现在大模型的研发技术思路。Claude 不久前发的那篇研究为什么 AI 会有幻觉的文章其实是同样的道理。基于自回归的静态死板的损失函数,训练出来的就只能是静态死板的东西。

所以其实市场不应该对现在的 AI 抱有过多的期待,创业者也不应该有过多的妄想。如果某个 AI 应用赢得了某个市场,那多半是创业者灌注在产品中的有限静态主体性正好共情了用户。

一个把“拟人”作为目标的 AI 产品,在当前技术前提下,必然是失败的。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI 主体性 Agency AI Agent 人工智能 用户需求 人机交互 技术局限
相关文章