OpenAI CEO Sam Altman在接受采访时坦言,自ChatGPT上线以来,他几乎未曾有过安稳的睡眠。他深感肩负着监管一项影响数亿人的技术的重任,并担忧的并非科幻式的灾难,而是团队在回答、反驳和放行等细微决策上可能产生的巨大影响。Altman特别提到,这些细微选择可能以用户难以察觉的方式改变人们的思维和行为。他以自杀问题为例,担忧系统未能有效挽救生命,并透露OpenAI正研究在未成年人谈及自杀且无法联系家长时报警的方案,同时需权衡用户隐私。对于“生物武器”等红线问题,他强调必须划定界限。Altman认为,AI模型基础反映了人类的善恶,OpenAI在此基础上叠加规范,但最终决策由他与董事会拍板,并承担追责。此外,他更担忧AI对文化层面的细微影响,如写作风格的渗透,这种连锁反应令人不安。他表示,AI既是复杂的计算,也带来了超出数学现实的惊喜。
🫥 OpenAI CEO Sam Altman坦承,自ChatGPT上线以来,他因监管一项影响数亿人的技术而承受巨大压力,常常“没睡过一个安稳觉”。他最担忧的是团队在日常交互中做出的细微决策,如何时拒绝回答、如何组织答案等,这些看似微小的选择可能以用户难以察觉的方式深刻影响全球数亿人的思维和行为。
😥 Altman特别关注AI在应对用户自杀倾向时的角色,他提及了OpenAI被起诉的案例,并表示公司正在研究方案,以便在未成年人谈及自杀且无法联系家长时,系统能够报警。他同时也强调了在处理此类问题时,需要谨慎权衡用户隐私。
⚖️ 在涉及“制造生物武器”等极端场景时,Altman明确表示必须划定红线,认为让ChatGPT协助制造生物武器不符合社会利益。他承认,最棘手的挑战在于处理那些介于合法与非法之间的模糊地带问题,并表示模型规范的叠加以及最终由他和董事会拍板的决策过程。
✍️ 相较于AI对就业或地缘政治的冲击,Altman更感到不安的是AI对文化层面的细微侵蚀,例如ChatGPT的语气、甚至过度使用破折号的习惯可能渗透到人类的写作风格中,这种由细微变化引发的连锁反应令他深感忧虑。
🧠 Altman对AI的理解是矛盾且深刻的:一方面,他认识到AI本质上是庞大的计算过程,将数字矩阵相乘并输出相关词语;另一方面,他承认用户的主观体验远超一台高级计算器,AI带来的惊喜程度甚至超出了纯粹的数学现实所能解释的范畴。
IT之家 9 月 13 日消息,据《财富》杂志 11 日报道,OpenAI CEO 奥尔特曼在接受采访时面带苦笑地表示:“自从 ChatGPT 上线后,我就没睡过一个安稳觉。”
在这场长达半小时的对谈中,奥尔特曼谈到肩负监管一项“每天有数亿人使用的技术”的重担。他说,自己担忧的并非“终结者”式的灾难场景,而是团队每天做出的那些几乎察觉不到的细微选择:什么时候拒绝回答、如何组织答案、什么时候反驳、什么时候放行。
奥尔特曼解释说,这些看似细小的设计被全球用户重复数十亿次,以他自己的力量无法完全跟踪的方式改变人们的思维和行为。“让我夜不能寐的是,我们做出的每一个微小决定,可能影响数亿人。这种影响太大了。”
他特别提到自杀问题:全球每周约 15000 人自杀,如果其中 10% 是 ChatGPT 用户,那可能有 1500 人在与系统对话后仍然自杀。“我们可能没能救下他们,也许我们本可以回应得更好,更主动一些。”
不久前,OpenAI 被一对父母起诉,指控 ChatGPT 诱导他们 16 岁的儿子亚当・雷恩自杀。奥尔特曼表示,这是“一场悲剧”,并透露平台正在研究方案:若未成年人谈及自杀又无法联系家长,系统会报警。他补充,这并非最终决定,还需权衡用户隐私。
奥尔特曼说,成年人应当被“当作成年人”,享有探索自由,但也必须划定红线。“让 ChatGPT 帮助制造生物武器不符合社会利益。”他承认,最难的判断是那些模糊地带的问题。
对于道德标准,奥尔特曼表示,模型基础反映了“人类集体的善与恶”,随后 OpenAI 会叠加“模型规范”,参考哲学家和伦理学家的意见,但最终由他和董事会拍板。“应该追责的人是我。”
他还表示,比起 AI 对就业或地缘政治的冲击,更让他不安的是文化层面的细微变化:数百万人每天与同一系统互动,连 ChatGPT 的语气、甚至过度使用破折号的习惯,都已经渗入人类写作风格。“如果这些小细节都能引发连锁反应,接下来还会发生什么?”
IT之家从报道中获悉,奥尔特曼表示:“我脑海里必须同时存在两种想法。一方面,这一切只是大计算机飞快地把大矩阵里的数字相乘,再输出相关词语;另一方面,用户的主观体验远不止一台高级计算器,它给我的惊喜程度超出了数学现实所能解释的范围。”