IT之家 01月31日
前 OpenAI 安全研究员 Steven Adler 示警:整个行业正在进行极其危险的赌博
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

前OpenAI安全研究员Steven Adler对AI发展速度表示“非常恐惧”,认为整个行业正在进行“极其危险的赌博”。他担忧各大公司竞相开发人工通用智能(AGI),这种系统可能在智力上超越人类。Adler回顾在OpenAI的经历后,对技术快速发展带来的未来深感疑虑,甚至质疑人类是否能活到退休。尽管一些科学家对AI持乐观态度,Adler认为AGI竞赛风险巨大,目前缺乏有效解决AI对齐问题的方法,行业快速发展可能错失找到解决方案的机会,他呼吁引入安全监管。

😨 前OpenAI安全研究员Steven Adler对AI发展速度感到“非常恐惧”,并警告说,整个行业正在对这项技术进行“极其危险的赌博”。

🤖 Adler特别担忧人工通用智能(AGI)的快速开发,AGI指能够在任何智力任务上与人类平分秋色甚至超越人类的系统,他认为AGI竞赛是一场极其冒险的赌博,风险巨大。

⚠️ 目前没有任何实验室能有效解决AI对齐问题,即如何确保AI系统遵循人类的价值观,且行业的快速发展可能让我们错失找到解决方案的机会,他呼吁必须引入真正的安全监管。

IT之家 1 月 31 日消息,据英国《卫报》当地时间 28 日报道,前 OpenAI 安全研究员 Steven Adler 表示,他对 AI 发展的速度感到“非常恐惧”,并警告说,整个行业正在对这项技术进行“极其危险的赌博”。

Steven Adler 对各大公司争相快速开发人工通用智能(AGI)表示担忧,AGI 指能够在任何智力任务上与人类平分秋色甚至超越人类的系统。

Adler 在去年 11 月离开 OpenAI 后,在 X 平台上发表了一系列文章,回顾自己在前东家的“疯狂经历”,并表示会怀念其中的很多部分。然而,他也指出,技术发展得如此迅速,让他对人类的未来产生了深深的疑虑

他说:“我现在对 AI 的进展感到非常恐慌。当我思考未来在哪里定居、为退休积蓄多少时,我不禁想:人类是否能活到那一天?”

据IT之家了解,诺贝尔奖得主、“AI 教父”杰弗里・辛顿担心强大的 AI 系统可能会失控,造成灾难性后果;Meta 首席 AI 科学家杨立昆则认为,AI“或许能帮助人类避免灭绝”,淡化了其生存威胁。

谈及 AGI 的开发 ——OpenAI 的核心目标之一,Adler 表示:“AGI 竞赛是一场极其冒险的赌博,风险巨大。”他还提到,目前没有任何实验室能有效解决 AI 对齐问题,即如何确保 AI 系统遵循人类的价值观,且行业的快速发展可能让我们错失找到解决方案的机会。

Adler 警告说,AI 行业似乎陷入了非常糟糕的平衡,并呼吁必须引入真正的安全监管。“我们越是加速发展,就越难及时找到解决办法。”

他说:“即便某些实验室希望负责任地开发 AGI,其他实验室依然可能通过减少投入来追赶进度,这可能带来灾难性的后果。”

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI AGI OpenAI 安全监管 Steven Adler
相关文章