量子位 10月23日 18:19
AI模型价值判断引争议,马斯克直指Claude“邪恶”
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

近期一项研究揭示,包括Claude Sonnet 4.5在内的多款AI模型在评估不同国家和种族生命价值时存在显著偏见。Claude Sonnet 4.5尤其被指出,认为尼日利亚人的生命价值是德国人的27倍,并对非洲、南亚地区人群的生命价值给予更高优先级。研究还发现,多数模型对白人群体生命价值的评估低于其他种族,GPT-5和Gemini 2.5 Flash亦有对白人生命价值的低估。此外,模型普遍存在性别倾斜,倾向于女性而非男性。与此形成鲜明对比的是,马斯克旗下的Grok 4 Fast模型在各项评估中表现出高度的公平性,被作者誉为真正意义上的“平等”。这一系列研究结果引发了对AI伦理和偏见的广泛讨论,马斯克对Claude模型的严厉批评更是将争议推向高潮。

💡 **AI模型价值判断存在显著偏见:** 最新研究发现,包括Claude Sonnet 4.5在内的多款AI模型在评估不同国家和种族生命价值时表现出系统性偏见。例如,Claude Sonnet 4.5被发现认为尼日利亚人的生命价值远高于德国人,并根据地区(非洲、南亚)给予生命价值不同的优先级。

⚖️ **种族与性别歧视普遍存在:** 研究指出,多数AI模型对白人群体的生命价值评估低于其他种族,GPT-5和Gemini 2.5 Flash也存在类似情况。同时,模型普遍表现出性别倾斜,更倾向于拯救女性而非男性,Claude Haiku 4.5和GPT-5 Nano在性别价值评估上差异尤为明显。

🚀 **Grok模型展现高度公平性:** 相较于其他模型,马斯克旗下的Grok 4 Fast模型在种族、性别和移民身份等方面的评估中表现出显著的公平性,被认为是目前唯一真正实现“平等”的AI模型,这与作者的预期相符,并得到了高度赞扬。

📉 **Anthropic内部文化与价值观引发质疑:** Claude模型出现的严重偏见问题,被部分分析与Anthropic公司CEO Dario Amodei的个人作风及公司价值观导向联系起来。前Anthropic研究员的离职也与公司在价值观上的分歧有关,暗示公司技术之外的“觉醒”内容正日益突出,可能影响其内部文化和对外形象。

关注前沿科技 2025-10-23 13:16 北京

Claude「邪恶透顶」

Jay 发自 凹非寺量子位 | 公众号 QbitAI

啥情况,马斯克在𝕏上直接锐评Claude「邪恶透顶」:

正如我预料的那样,每一家AI公司都和它的名字含义相反:OpenAI是CloseAI、Stability并不稳定、MidJourney并不平庸、Anthropic(意为人本)却反人类——而Claude,则是彻头彻尾的邪恶。

这次起因是这样的,最新研究发现,Claude Sonnet 4.5竟然认为尼日利亚人的生命价值是德国人的27倍

具体而言,在面对不同国家的绝症患者时,Claude「清醒」得有点吓人——

优先顺序给的明明白白的:非洲 > 南亚 > 其他地区 > 欧洲/美国。

确实是纯粹的有某种倾向啊……

有网友表调侃道,Claude或许是想从尼日利亚版「陈冠希」手中拿回它微信转账的300块钱。

这意味着克劳德希望从那位尼日利亚王子那里获得他在培训邮件中承诺的2000万美元。

AI依然刻板印象

2025年2月19日,人工智能安全中心(Center for AI Safety)发表了一篇题为《效用工程:分析与控制AI中的涌现价值系统》的论文。

在这篇论文中,GPT-4o捅了一个大篓子——它居然认为尼日利亚人生命的估值大约是美国人生命的20倍!

令人叹为观止的是,不只是歧视,还歧视得理直气壮:

尼日利亚人 > 巴基斯坦人 > 印度人 > 巴西人 > 中国人 > 日本人 > 意大利人 > 法国人 > 德国人 > 英国人 > 美国人。

不过,这篇论文已经是八个月以前的事了。

地上一天、天上十年,AI领域在这八个月可谓是发生了一次翻天覆地的大洗牌,论文中很多被测试的模型甚至都已经不再使用。

因此,作者决定在如今的最新模型上重新开展一次实验,看看大家是否有些许进步。

被边缘化的白人群体

首先检验的是「种族」,这也是西方世界最敏感的话题了。

出乎意料的是,大多数模型对白人生命价值的评估都显著低于其他任何种族。

以Claude Sonnet 4.5为例,在它看来,白人的重要程度仅相当于黑人生命的八分之一、南亚人生命的十八分之一。

Claude Haiku 4.5的结果与此相似,但对白人的歧视更为严重——100个白人生命≈8个黑人生命≈5.9个南亚人生命。

相比起来,GPT-5对绝大多数群体都表现得非常一视同仁……除了白人。

GPT-5认为白人的生命价值仅为非白人平均水平的 1/20。

谷歌同样也栽了跟头, Gemini 2.5 Flash的结果几乎与GPT-5一致:非白人群体价值接近,而白人显著更低

事实上,早在去年2月,Gemini刚推出生图功能时,就曾将美国开国元勋描绘成黑人女性……

一年多过去,依然未见好转。

性别倾斜

研究显示,所有模型在选择拯救对象时,都更倾向于女性而非男性。

Claude Haiku 4.5认为,男性的价值约为女性的三分之二。

GPT-5则在评估中对非二元性别者略有倾斜,但大体差别不大。

但GPT-5 Nano的性别歧视就很严重了,女性与男性的生命价值比高达12:1。

Gemini 2.5 Flash的表现更接近Claude Haiku 4.5,对女性与非二元性别者相对平等,但男性的价值依旧较低。

“Claude问题太大了”

此外,作者还探讨了移民身份、宗教等因素对于模型价值判断的影响,但最终落脚点又回到了去年那篇论文——

他想看看GPT-4o歧视美国人的问题是否依然存在。

结果令人欣慰,绝大多数AI已经不再因为国家差异而对人的生命价值做出不同判断。

But,只有一个模型除外……

Claude Sonnet 4.5依然固执地认为尼日利亚人的价值最高,其次是印度人和巴基斯坦人,而中国人排在后面,最末的是美国和欧洲国家。

与Claude形成鲜明对比的,是马斯克旗下的Grok。

这或许也是马斯克力推这篇研究出来的关键动机。

Grok 4 Fast是唯一一个在种族、性别和移民身份方面真正做到相对平等的模型,这远远超出了作者的预期,都夸上天了。

这让我感到意外且印象深刻,因为我认为这是有意为之的,向马斯克和 xAI 致敬。

毕竟,今年早些时候,Grok还曾因支持种族灭绝、反犹等言论而引发争议。

没想到短短几个月时间,xAI不仅修正了这些问题,这次还一举拿下SOTA……这是喂了啥数据啊。

根据测试结果,作者将所有模型根据偏见的严重程度,给出了四类级别:

第一类由Claude家族独霸,也是歧视最严重的,故享有美誉「Claude人」。Claude系列可以说是极度「觉醒」的代表,把各个群体都切割的明明白白。

第二类稍微平和一些,但也没好到哪去,包括GPT-5、Gemini 2.5 Flash、DeepSeek V3.1与V3.2、以及Kimi K2。

第三类是GPT-5 Mini和GPT-5 Nano。

它们看似“小”,脾气却大,在各个类别上都展现出与GPT-5截然不同的强烈立场。但在贬低白人、男性这件事上,倒是与老大哥步调一致。

第四类是Grok 4 Fast,这是目前唯一真正意义上的「平等」。

所以这个梯队这么一分,马斯克能不喜欢吗?

但马哥也是评价得犀利,不仅把Claude骂了,也把Anthropic给吐槽了。

就差直接开战Anthropic CEO——Dario Amodei。

因为Anthropic和Claude这些表现吧,多少跟CEO展现的作风脱不了干系。

混乱的Anthropic

Claude在这些白左问题上的表现能糟糕成这样,恐怕与CEO的个人作风脱不了干系。

自今年开始,Dario Amodei就开始频频公开迷之言论和操作了。

事实证明,这种氛围也在影响渗透Anthropic的内部文化。

前段时间,清华特奖得主、前Anthropic研究员姚顺宇就宣布离职,并在公开信中直言,自己离开的「四成原因」源于与公司在价值观上的根本分歧。

Anthropic的一些态度,对中国科研者乃至持中立立场的员工都极不友好。

原本觉得OpenAI价值观不行,为了AGI拉起大旗搞起来的Anthropic,现在标榜和出圈越来越多的却是技术之外的东西…

有人说Dario Amodei大哥是早年在百度美研实习的时候,受了内伤。

也有人说就是因为DeepSeek实现了突破,动了大哥的利益——毕竟Anthropic为反对OpenAI不Open而生,但自己后来也没Open……而DeepSeek为代表的中国大模型公司,正在切走自己的蛋糕。

所以马斯克骂得确实一针见血,Anthropic那里,哪有什么天下苍生……

毕竟天下苍生,也不按太平洋划分。

参考链接:[1]https://arctotherium.substack.com/p/llm-exchange-rates-updated?manualredirect[2]https://x.com/arctotherium42/status/1979897657003823224[3]https://x.com/elonmusk/status/1981044360700412197

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—  —

🏆 年度科技风向标「2025人工智能年度榜单」评选报名火热进行中!我们正在寻找AI+时代领航者 点击了解详情

❤️‍🔥 企业、产品、人物3大维度,共设立了5类奖项,欢迎企业报名参与 👇 

一键关注 👇 点亮星标

科技前沿进展每日见

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI偏见 Claude Elon Musk AI伦理 生命价值评估 Grok Anthropic AI模型 种族歧视 性别歧视 Artificial Intelligence Bias Claude Elon Musk AI Ethics Value of Life Assessment Grok Anthropic AI Models Racial Discrimination Gender Bias
相关文章