36氪 - 科技频道 09月03日
AI教父 Hinton 警告AI降低战争门槛,并担忧AI接管人类
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

“AI教父”Geoffrey Hinton在采访中再次发出警告,指出“杀手机器人”和无人机等致命自主武器的兴起,正让战争变得更容易发动。他认为,这降低了战争的人力与政治成本,可能怂恿富国入侵穷国,并让军火商获利。Hinton更深层地担忧AI本身可能带来的长期风险,即AI接管人类,并呼吁AI公司应将更多精力投入AI安全研究。他还探讨了AI取代工作、全民基本收入的议题,并对AI在医疗领域的突破表示乐观,同时提出了“AI母亲”的新思路,希望AI能被赋予类似母性本能,以实现人机和谐共存。

🤖 **AI降低战争门槛与人道成本**:Hinton认为,“杀手机器人”和无人机等致命自主武器的出现,通过减少战场上的人员伤亡,大幅降低了发动战争的政治和人力成本。这使得富裕国家更容易入侵贫穷国家,因为战争的代价(人员伤亡)被机器取代,而军火商则能从中获利,因为更换昂贵的机器人比牺牲士兵更具经济吸引力。

🛡️ **AI接管与长期风险**:Hinton最主要的担忧是AI本身可能带来的长期风险,即AI的智力将大幅超越人类,并最终接管人类社会。他认为,避免这一风险的唯一方法是确保超级智能AI“不想”接管,这需要与提升AI智能不同的技术路径,并呼吁国际社会在此议题上进行合作。

💼 **AI对就业的影响与社会治理**:Hinton预测AI将取代各行各业的大量工作岗位,包括低薪的呼叫中心、初级的白领工作(如律师助理、程序员),甚至可能包括需要高情商的职业(如护士、医生),因为AI在某些方面表现出更强的同理心。他认为,应对这一挑战的关键在于社会治理,确保AI带来的生产力提升能够公平地惠及所有人,并提出全民基本收入(UBI)作为一种“创可贴”式的解决方案,但强调其无法解决价值观丧失的问题。

💡 **AI的积极进展与“AI母亲”设想**:尽管存在担忧,Hinton也对AI在医疗和疾病研究领域的突破表示乐观,例如AI通过眼底图像预测心梗风险和在新药设计中的应用。他提出了一个颠覆性的新思路——“AI母亲”,即尝试在AI中植入类似母性本能,使其真心希望人类成功并尽一切可能确保这一点,从而重塑人类与AI的共存关系,将人类置于“婴儿”而非“智慧顶点”的位置。

⚖️ **AI公司安全责任与人性弱点**:Hinton批评了许多AI公司(如OpenAI和Google)在AI安全方面的投入不足,认为它们过于追求AI的智能提升而非安全性。他指出,贪婪和对创造出比人类更聪明事物的兴奋感是阻碍AI公司优先考虑安全的关键人性弱点,并直接向Sam Altman和Elon Musk喊话,敦促他们投入更多精力确保AI的安全发展。

近日,「AI教父」Geoffrey Hinton在一次采访中再发预警:「杀手机器人」「无人机」等致命自主武器的兴起,正在让战争变得更易发动。Hinton认为OpenAI、Anthropic等许多AI公司在AI安全方面做得都不够。他还谈到了贪婪、自负等人性弱点,对AI研究可能带来的潜在风险。

Couric:如果你能把奥特曼和马斯克请到同一张桌子上,你会对他们说什么?

Hinton:我会说:你们很清楚,你们正在开发的东西,很可能把人类毁灭掉。

近期,「AI教父」Geoffrey Hinton,在与《Next Question》主持人Katie Couric对话时,直言不讳地说出了内心对AI安全的忧虑。

Geoffrey Hinton与《Next Question》主持人Katie Couric对话

实际上,这已经不是他第一次为预警AI风险而发声。

2023年5月,时任谷歌首席AI科学家的Hinton从谷歌辞职,扮演起「AI吹哨人」的角色。

自此,他一直在关注和呼吁人类要警惕AI过快发展带来的风险,还表示后悔自己未能更早地考虑AI的安全问题。

近日,Hinton再次发出警告——AI正在改变战争方式,让战争变得更容易:

自主武器,意味着「死掉的机器人」,而不是「裹尸袋」。

Geoffrey Hinton称,杀手机器和无人机正在降低战争的人道成本

Hinton表示,「杀手机器人」「无人机」等致命自主武器的兴起,正在让发动战争变得更容易。

AI让发动战争变得更容易

「杀手机器人」参与战争,将会代替许多原本可能在战场中死掉的人。

这本应该是件好事,但恰恰也是最让这位「AI教父」恐惧的事情。

这样一来,发动一场战争的成本会更低,战争就更容易爆发了。

Hinton表示,「杀手机器人」的兴起不会让战争更安全,相反它会通过降低作战的人力与政治成本,使战争更容易爆发。

这使得一个富国想入侵一个穷国,变得更容易了。

因为原来能够阻战争发生的,就是这些富国的公民在战场上被装进裹尸袋。

但是,AI改变了这一点,「如果有致命自主武器,回来就不是死人,而是死掉的机器人。」

在Hinton看来,这种转变,可能会怂恿政府发动战争,同时也会让军火商大发其财。

「这对军火商来说简直太棒了,因为这些机器人更换起来很昂贵」。

除了降低战争成本,Hinton认为AI已经在重塑战场,改变战争的方式。

比如,在现实战争中,已经通过AI驱动的无人机、无人系统改变了战场,颠覆了传统战争形态和战争手段。

甚至有人说,未来战争中,数据的作用将超越弹药。

以现实战争举例,现在一架500美元的无人机,就可以摧毁一辆价值数百万美元的坦克。

而且,AI技术也让传统硬件逐渐显得过时,比如它使载人战斗机变成一个愚蠢的主意:

「如果你能在战机里装上AI,AI可以承受更高的过载——而且不用过多担心人员伤亡。」

AI接管将是人类最大的担忧

与AI对未来战争带来的影响相比,Hinton更担心人类被AI接管的风险。

2024年,Hinton在获得诺贝尔物理学奖时表示,希望人们可以更认真地看待他关于AI以及其未来角色的观点。

而经过这些年,Hinton也逐渐把他有关AI担忧的思考,更广泛地传开了。

当谈到当下AI的风险,Hinton表示:

我的主要担忧,并不是恶意行为者在短期内滥用AI的风险(那当然也非常严重),而是更长期的风险——AI本身接管。

这种风险,主要来自科学家们对AI将大幅超越人类智力的预测。

Hinton谈到了要避免被AI接管的唯一方法,就是让我们构建的那些超级智能AI,根本「不想」接管。而实现这一点的技术,和让AI更聪明的技术有些不同。

在这个问题上,更容易取得国际间的合作。因为各国不会分享如何做出最聪明AI的办法,但却会在「如何让它不想取代人类」这件事上合作。

AI会取代我们的工作吗?

除了战争,Hinton关于AI的另一个警告,是它几乎可能在所有领域,取代大量的工作岗位。

这个问题所带来的挑战,并非在技术,而是在社会治理上:

「如果我们的政治体系足够公平,当AI大幅提升生产率时,本应当使每个人都能得到更多商品和服务。」

当谈到大学生未来的职业选择,Hinton认为AI会很快替换掉呼叫中心这类低薪、培训差的工作。

此外,还有律师助理、程序员等白领岗位上的一些初级岗位工作也可能被替代(一些能设计复杂系统的顶尖程序员仍然会吃香)。

与这些岗位相比,相反一些需要人手灵巧度的工作,比如水管工更不容易取代(当然,最终机器也会变得灵巧,所以十年、二十年后,连这个可能也不安全了)。

令人有点沮丧的是,Hinton还提到,AI甚至也在替代一些需要高情商和人际沟通的工作,比如护士、医生,原因是AI会比人类更具同理心:

「如果让人们分别和医生以及一个AI互动,再问他们谁更有同理心,AI的评分更高。」

在访谈中,Kittie Couric还谈到了「全民基本收入」(UBI),是否有助于应对大规模工作被AI取代的问题。

UBI是近几年一些国家公共政策讨论中的热点议题,是为社会中的每个人,提供兜底的收入保障。

Hinton认为它虽然治标不治本,但是一个很好的「创可贴」。

UBI可以让人不至于挨饿、付得起房租,但它解决不了价值观丧失的问题。

因为对于很多人来说,自我价值感和他们的工作紧密相关。一旦失业,这种价值感就会丧失。

AI常见的一个应用场景,是在医疗科技领域。Hinton也提到了AI在医疗和疾病领域相关的科学突破。

比如,AI可以通过解读眼底图像,预测心梗发病几率,这在以往是做不到的。

此外,AI还可以在新药设计上发挥很强的关键作用。

Hinton谈到DeepMind团队提出了从蛋白质序列预测其折叠结构的方法,还分拆出了一家专做新药设计的公司。

他认为,未来一两年,或许更长一点时间内,我们会迎来一系列更好的药。

对AI未来的乐观展望

Hinton始终提醒人类,要注意防范被自己所创造出来的、更聪明的AI接管的风险。

以OpenAI、谷歌为代表的AI公司,是AI技术发展背后的重要推手,但在Hinton看来,没有哪家公司在这一问题上是做得足够的:

「Anthropic是一些离开OpenAI的人创办的,因为他们认为后者在安全研究上的投入太少。但Anthropic还是可以做得更多;尽管OpenAI强调是以安全发展AI为目标,但他们越来越关心让AI更聪明,而不是如何让它更安全。

Hinton揭示了这些AI公司在安全问题上滑稽、矛盾的一面:

奥特曼在很大程度上转向了「快点发展,别太注意安全」;马斯克在起诉奥特曼,说他忘了「安全发展AI的初心」。但马斯克在发展AI上,对安全也并不上心。

Kittie Couric还问了Hinton一个非常有意思的问题。

Kittie Couric:如果你能把奥特曼和马斯克请到同一张桌子上,你会对他们说什么?

Hinton:我会说:你们很清楚,自己开发的东西有很大概率把人类灭掉。你们私下也承认这点。你们应该投入更多精力,用能确保安全的方式来开发。

Kittie Couric:你觉得是什么阻止了他们?是贪婪吗?

Hinton:基本上是的。他们想靠AI赚大钱,还有「做出比人类更聪明的东西」的兴奋感。但这非常危险。

对话谈还到了贪婪、自负等人性弱点,对AI研究可能带来的潜在风险。

Hinton认为年轻的AI研究者,比年长者更能理解AI的力量和潜在的负面效应,他们也更能意识到AI接管可能带来的风险。

一个积极的信号是:当谈到对AI未来的展望时,Hinton表示他比几周前更乐观了。

这一转变,主要是因为他关于「AI母亲」的思考,一种尝试AI植入类似「母性本能」的新思路:

婴儿之所以能控制母亲,是因为很多东西被「进化写进了」母亲身上,母亲真心希望孩子成功,会尽一切可能确保孩子成功。我们希望AI也会如此。

「AI母亲」这一思考,重塑了人类如何与AI共存的思路,不是想着支配它们,而是为它们植入「母亲本能」。

这一设想,也颠覆了大多数人的想象:

在AI面前,我们不再是「智慧顶点」(母亲),而是婴儿。

参考资料:

https://www.businessinsider.com/geoffrey-hinton-ai-autonomous-weapons-war-robots-drones-military-effect-2025-8%20

https://podcasts.apple.com/rs/podcast/the-godfather-of-ai-dr-geoffrey-hinton-on/id1134154895?i=1000723684133%20

https://omny.fm/shows/next-question-with-katie-couric/the-godfather-of-ai-dr-geoffrey-hinton-on-ai-s-existential-risk

本文来自微信公众号“新智元”,作者:新智元,编辑:元宇,36氪经授权发布。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Geoffrey Hinton AI安全 致命自主武器 人工智能风险 AI接管 工作替代 全民基本收入 AI母亲 AI伦理 Geoffrey Hinton AI Safety Lethal Autonomous Weapons AI Risks AI Takeover Job Displacement UBI AI Mother AI Ethics
相关文章