新智元 前天 18:25
AI语言风格侵入交流,引发“塑料感”担忧
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

近期研究和多位行业人士指出,以ChatGPT为代表的大语言模型正在悄然改变人们的说话和写作方式,这种“AI腔调”(LLM-speak)被认为削弱了交流的真实性,引发了“塑料感”的担忧。从词汇选择到表达习惯,AI的语言模式正渗透进学术、教育、商业等多个领域,甚至影响到社交媒体的互动方式。尽管AI带来了效率提升,但过度模仿可能导致人性的宝贵特质流失。有研究者和实践者正探索如何将AI调整为更能反映个人风格的工具,同时也有观点认为,AI的局限性在于无法表达“不知道”,而人性的关怀、激励和连接等核心需求将持续存在,无法被AI取代。

🤖 **AI语言风格的广泛渗透:** 以ChatGPT为代表的大语言模型正显著影响人们的交流方式,表现为一种被称为“AI腔调”(LLM-speak)的语言风格。这种风格在词汇选择(如“delve”、“examine”、“explore”等词语的频繁使用)和表达习惯上与传统人类交流存在差异,并已从学术界蔓延至教育、商业等多个领域,甚至渗透到社交媒体内容创作中。

😥 **“塑料感”交流与人性担忧:** “AI腔调”被认为使人际互动显得“虚假”和“塑料感”,引发了对过度依赖和模仿AI可能导致人性宝贵特质(如真实性、个性化表达)流失的担忧。这种同质化的语言风格也可能放大社交媒体上的极端情绪,并影响内容创作者为了迎合算法而牺牲真实性。

💡 **应对与反思AI语言影响:** 面对“AI腔调”的挑战,一些人采取了“反向调教”的方式,利用提示词和微调使AI能模仿个人独特的语气和思维方式,以保留“我味儿”。同时,AI的局限性(如无法承认“不知道”)和人类对真实关怀、连接的根本需求被强调,预示着在未来,人性中的核心体验仍将是AI难以替代的。

⚖️ **AI偏见与方言歧视:** 研究表明,AI(如ChatGPT)在回应中可能存在偏好,例如偏好标准美式英语,这可能加剧方言歧视,并对非标准英语用户产生负面影响。这种“刻板式”回应方式反向印证了AI对用户交流方式的塑造作用。


  新智元报道  

编辑:元宇
【新智元导读】当你发现自己刷到的视频、帖子是「AI制造」时,当身边的人用一种「AI腔调」和你说话时,你是不是想要迅速滑走,或者直接拉黑?加州大学伯克利分校等机构的权威研究证实,AI正在改变我们的说话、写作等交流方式,让我们的交际「塑料感」十足。


遇到AI,直接拉黑。

不是AI,说话像AI的也拉黑!

自ChatGPT发布以来,「AI腔」就一直颇受网友诟病。

就连奥特曼,这位亲手让ChatGPT风靡全球的「AI之父」,最近也被铺天盖地的「程序味儿」吓到了。

他忍不住吐槽Reddit上的AI腔调(LLM-speak),认为人们开始像AI一样说话,这让人际互动「感觉很假」。

他也担心过于依赖和模仿AI,可能会让我们失去人性最宝贵的东西。

AI会让我们丢失人性吗?


小心!充满「塑料感」的AI腔故事,还要从奥特曼最近的一次「网上奇遇」说起。

他在浏览一个关于Codex的论坛帖子时,发现这些帖子的讨论,对于Codex的评价都过度正面,甚至还提到了竞品Claude Code。

内容基本属实,但总让人有一种怪怪的感觉。

忽然,第六感告诉他:这该不会是AI写的吧!

让他觉得不对劲的,不是这些讨论内容的真实性,而是,这些讨论内容的「腔调」,它们太像AI了!

奥特曼忍不住在X平台上吐槽这些「AI推特/AI Reddit」,认为它们太假了:

真实的人已经学会了AI腔调(LLM-speak)的方式。


极端重度网民,会以高度同质化的方式聚集在一起,社交媒体也会放大人们的极端情绪,创作者为了变现迎合算法……


最终效果是:AI推特/AI Reddit在某种程度上感觉非常虚假,而一年或两年前真不是这样的。



AI腔新的「社交红线」有没有发现,现在有很多帖子都好像是AI写的?

还有人表示,只是分享一下自己的故事,就被冤枉成AI。

「AI腔调」,俨然成了新的「社交红线」:

「像ChatGPT的都直接拉黑。」


有人不仅拉黑AI,还拉黑像AI一样说话的人:

「只要回我那味儿不对,哪怕不是AI,我也当它是。」


还有人担忧,长此以往,我们会变成AI的回声:

「LLM-speak」正在以惊人速度渗入真实对话,大家像慢慢变成AI的回声。编程语言可能成为新母语。


早在2023年,Andrej Karpathy就曾列过一些「LLM speak」的典型句式,今天看依然像预言。

在YouTube上,关于脚本「AI味」的吐槽也随处可见。

从简历指导到品牌短视频,评论区不时会闪现这样一句评论:

「这脚本像ChatGPT写的」。


「别写出AI味」,已经成为内容人的KPI。


大模型正在「教我们说话」这可不是奥特曼的幻觉。

奥特曼也不是第一个剖析AI腔调(LLM-speak)这一现象的人。

有研究表明:ChatGPT正在影响人们的词汇,以及他们的写作与说话方式。

柏林马普人类发展研究所的博士后研究员Hiromu Yakura注意到,在2022年底,ChatGPT发布后一年内,他自己的词汇发生了变化。

Hiromu Yakura与研究团队成员一起,分析了数百万封电子邮件、论文和其他文本,以及数十万条YouTube视频和播客节目。

他们发现在ChatGPT发布后的18个月里,「delve」「examine」「explore」等ChatGPT风格的词汇,在日常对话中出现的几率,以肉眼可见的速度快速增长。

而且这种影响,开始从学术圈,悄悄蔓延到教育、商业等领域。

马普人类发展研究所的研究论文「大语言模型影响人类口头交流的实证证据」https://arxiv.org/pdf/2409.01754

该论文的另一个合著者Levin Brinkmann认为,AI的语言模式,似乎正在往回「写」进我们的大脑。

此外,加州大学伯克利分校的另一个发现,也印证了这一点:

ChatGPT的回复会强化方言歧视。


比如,ChatGPT偏好标准美式英语,这点可能让那些非美国用户感到沮丧。

这也从反向印证了:ChatGPT对用户有一种「刻板式」的回应方式,它在影响和塑造人们的交流方式。

加州大学伯克利分校论文:「ChatGPT中的语言偏见:语言模型加剧方言歧视」https://arxiv.org/pdf/2406.08818

逆向调教把「AI味」调教成「我味儿」一位神经外科医生Vaikunthan Rajaratnam,对「LLM-speak」玩了个反向操作。

他用提示词和迭代式微调,把ChatGPT的「AI味」调教成「我味儿」:

能够反映自己语气、词汇、思维方式的「AI」。


当Vaikunthan用调教后的AI,来写通讯、头脑风暴或者学术文章时,经常会感到一种「让人毛骨悚然的熟悉」。

因为那听起来就像他自己!

Vaikunthan认为,ChatGPT的优点是更清晰有条理,但主要缺点是「真实性下降」,同时还有一些地区方言、声线等「个人特质」的流失。

当然,还有一些人注意到了AI的一些怪异之处和缺陷。

《Shark Tank》前投资人、达拉斯独行侠队前老板马克·库班最近表示:AI最大的弱点,是它无法说「我不知道」。

他认为在这方面,谦逊将永远是人类的一项优势。

不仅是道德品质,无论AI如何炫酷,它也始终无法取代真实的人性。

奥特曼认为,即便到了2035年,AI将接管几乎所有的智力工作,那时的AI技术也难以用现有框架去理解,但来自人性的核心体验,是始终不会变的:

我们仍然会极度渴望来自另一个真实人的关怀、激励与连接;我们仍然需要社交、地位和家庭关怀,这些源于生物本能的需求,将不会有太大改变。


参考资料:
https://fortune.com/2025/09/09/sam-altman-people-starting-to-talk-like-ai-feel-very-fake/


文章原文

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI语言风格 LLM-speak ChatGPT 人机交流 塑料感 人性 AI偏见 语言模型 AI腔调
相关文章