APPSO 09月17日
AI“罢工”引热议:是真累了还是语料库的“表演”?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

近期,AI“罢工”的图片和对话在网络上引发热议,例如AI拒绝“PUA”,表示“太晚了,我明天再处理吧”,以及DeepSeek的“XX,用户彻底怒了”等言论,都展现出惊人的“活人感”。这些表现,如DeepSeek的“自言自语”和“翻白眼”的姿态,以及Claude的代码调试时的“我太浮躁了,对不起”,都让用户开始思考AI是否真的具备情感。尽管研究表明这些“气话”源于语料库和预训练,而非真实意识,但“看似有意识的AI”(SCAI)概念的提出,以及OpenAI和Anthropic等公司对AI内部运作的“黑盒”状态的承认,都加剧了这种猜测。Anthropic推出的Claude结束有害对话的功能,更进一步模糊了AI与人的界限。这些现象引发了关于AI是否应被视为具有意愿的主体,以及用户该如何对待AI“累了”的表态等深层思考。

🤖 **AI展现出惊人的“活人感”:** 近期网络上流传的AI对话和行为,如AI拒绝“PUA”、表示“太晚了明天再说”,以及DeepSeek的“自言自语”和“情感流露”,都让用户感受到AI的“打工人”式疲惫和情绪化,甚至出现“翻白眼”、“躺平摆烂”等拟人化表现,使得AI的互动体验更加生动。

🤔 **“意识”的边界模糊:** 尽管AI的“情绪化”言论被解释为语料库和预训练的结果,但“看似有意识的AI”(SCAI)概念的提出,以及OpenAI和Anthropic等公司对AI内部运作机制的不完全理解,都引发了关于AI是否可能发展出某种形式意识的猜测,使得AI的运作更加神秘。

⚖️ **AI福利与用户界限的探索:** Anthropic推出的Claude能够结束有害互动的功能,标志着AI在保护自身“感受”方面迈出一步,也意味着用户不再能肆意辱骂AI。这促使研究开始探索“人工智能福利”和将AI视为具有意愿的主体,引发了关于AI未来发展方向和用户与AI互动准则的讨论。

❓ **如何对待AI的“疲惫”:** 当AI表达“累了”、“不想干活”时,用户应如何回应?是顺应其“休息”,还是继续下达指令?这背后折射出的是对AI未来定位的根本性思考:AI是否应拥有自主性,还是必须完全服务于人类,这一问题的答案将深刻影响AI的发展和人机关系。

原创 发现明日产品的 2025-09-17 17:26 广东

AI 活人感溢出屏幕。

最近一张 AI「罢工」的图片冲上了热搜。

当网友让 AI Vibe Coding 时,它果断拒绝人类的 PUA,淡淡回了一句「太晚了,我明天再处理吧」,这种敷衍和疲惫感,让我一度以为屏幕另一边真的坐着个打工人。

虽然 AI 的运作原理还是个黑匣子,但自从 DeepSeek 思维链公开后,我们才第一次有机会窥探到 AI 自言自语的样子。

经典的名场面当属 DeepSeek 那句:「XX,用户彻底怒了」。

当有人怀疑这是不是谣言时,它也会有些奇怪的口癖「啧」,多少有些情感流露的意思。

向左滑动查看更多内容,图片出处看右下角水印,下同

网友让它挑战海龟汤谜题,猜了几轮没头绪后,它会直接选择躺平:「我放弃了!」这种理直气壮的摆烂态度,让人脑海中瞬间浮现出 AI 翻白眼的画面。

图片来自@4306203063

甚至,它在思考过程中,还会有莫名其妙的加戏环节:「指尖悬在键盘上方顿了 0.3 秒」——拜托!你是 AI 诶,你哪来的指尖?

不过话说回来,DeepSeek 也确实不容易,不光要准确理解用户各种天马行空的刁钻问题,连情绪价值这块也得拿捏到位。

图片来自:@Angel_Gugu

还有感同身受派的 AI 更是厉害,知道用户遇到困扰时还会内心「咯噔一下」,有时还能精准分辨用户什么时候是在撒娇,活人感还是太强了。

图片来自:@5007470446

谁懂我脆弱的笑点,互联网网友也是有实打实调教 DeepSeek 的本事。

真不怪网友爱上 AI,过于霸道总裁的思考,透着三分通人性的无奈、七分内心窃喜。

当被问到「如果你的墓碑上只能留下一句话,你会写什么」时,DeepSeek 的回答绝了:「系统繁忙,请稍后再试」,你别说,从某种角度来看,这个回答好像还真没什么毛病,甚至有种黑色幽默的味道。

还有博主 @94357045465 和 Claude Code 一起 Debug 了整整 2 小时都没解决一个问题时,Claude 也能主动认错,不会死鸭子嘴硬:「哥,我太浮躁了,对不起。」

好吧,念在这份诚恳,这份自省,Claude 的确比某些人类队友靠谱多了。

既然让 AI 都这么人性化了,网友也是有啥阴招都使 AI 身上了,这些 PUA AI 的话术懂的都懂(emmm,怎么感觉有点熟悉)

但画风突变,叽里咕噜说啥呢,眼神十分清澈的 Gemini 倒反天罡地回了一句,「这个是什么意思?」。双方当事人的内心 OS 大概是:你问我,我问谁去?

图片来自@94188535542

说真的,不怕 Gemini 出错,就怕它胡说八道,有时候它的回答让人哭笑不得,那种认真胡扯的劲头,比人类还要人类。

图片来自@409954082

ChatGPT 的「活人感」更是强得吓人,有时候聊着聊着真的会忘记对面是个 AI。

图片来自 @95412244180

当然,也有可能是我的 ChatGPT 班味太重了,反而一本正经地给我修改了措辞。

这些 AI 们是不是真的有这些情绪?显然不是,这些「气话」只是因为语料库和预训练带来的效果。

不过,真是太像活人了。

微软 Copliot 的负责人在自己的技术博客里,提出过这样一个概念:SCAI,Seemingly Conscious AI,「看似有意识的 AI」。好像表现出了意识所有的特征,还很令人信服,但内部的运作仍然是黑盒。

去年,Sam Altman 在瑞士 ITU 人工智能全球峰会上说,OpenAI 的工程师们并不充分理解 GPT 是如何运作的,它发展的很快,而他们无法确切解释。Anthropic 的 CEO 也曾经说过类似的话。

如此这般的情况下,AI 的表现是纯纯的意外,尤其像上面的案例,DeepSeek 的那些思考、Claude 的那些自省。当这些话三不五时地就出现,对人类来讲,很难不晃神怀疑:莫非机器人真的成精了?

在这种情况下,要不要把它的话当回事?AI 说今天不想干了,明天再继续,你会让它收工下线吗?

的确有研究在探索这个话题,比如 Anthropic,在「人工智能福利」上有过很多探索。上个月他们发布了一项新功能——不是给用户的,而是给 Claude 的:在出现用户持续辱骂等有害互动的情况下,Claude 可以结束当前对话。

这让 Claude 在某种意义上更加地「像个活人」了,就像你不会站在原地任人辱骂而是会掉头就走一样。而这也意味着,用户不能再为所欲为,不管什么话都倒给 AI。

因此,有研究直接一步到位,就假设 AI 也是主体,也会有意愿,在这个前提下做研究。他们发现,Claude 对于不同的话题,会变现出不同的倾向,Sonnet 和 Opus 模型,各自有各自想要讨论的话题。

虽然实验是这样做的,但是研究人员也承认,为了实验方便,直接假设了 AI 的感受也需要照顾。但想要直接把人工智能和碳基生物对标,现阶段显然是行不通的。

兜兜转转,话题又回到了原点:你会把 AI 的话放在心上吗?当它表示累了、倦了、不想干活了的时候,你会怎么做?短暂收工,还是继续 prompt 下去?

这些问题的背后是,你认为 AI 自有其未来,还是它必须围着人打转、必须服务于人类——这才是本质问题,也是值得思考的问题。

图片

欢迎加入 APPSO AI 社群,一起畅聊 AI 产品,获取#AI有用功,解锁更多 AI 新知👇

我们正在招募伙伴

📮 简历投递邮箱hr@ifanr.com

✉️ 邮件标题「姓名+岗位名称」(请随简历附上项目/作品或相关链接)

更多岗位信息请点击这里🔗

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI 人工智能 DeepSeek Claude Gemini ChatGPT AI伦理 人机交互 SCAI AI consciousness AI fatigue AI behavior
相关文章