36kr 08月05日
OpenAI引信任危机:AI教父与诺奖得主等联名,要求回应八大问题
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

多家非政府组织和知名人士联名致信OpenAI,对其公司重组计划表示担忧,并要求提高透明度。公开信由Encode、The Midas Project等组织联合推动,获得了包括四位诺贝尔奖得主、以太坊联合创始人维塔利克·布特林以及多位前OpenAI员工在内的众多签署者。信中重点关注OpenAI可能弱化其非营利使命、优先追逐利润的风险。签署者们指出,OpenAI在2019年设立混合结构时,本应有利润上限、非营利监督等保障措施,但近期重组计划可能取消这些保护,并将巨额价值转移至私人投资者。公开信还列举了OpenAI在透明度、安全承诺等方面存在的问题,并提出了八个关键问题,要求OpenAI澄清其对公众的法律承诺和未来发展方向,呼吁OpenAI以实际行动证明其对透明度和安全的承诺。

💡 **使命与利润的权衡**:OpenAI作为一家初衷为“确保通用人工智能造福全人类”的非营利组织,其近期重组计划引发了对其是否会偏离初心、优先追求利润的担忧。多方签署的公开信要求OpenAI明确其对慈善使命的法律义务是否会继续优先于商业利润,尤其是在公司结构调整可能削弱非营利监督和利润上限的情况下。

🌐 **透明度缺失与信任危机**:公开信指出OpenAI在履行透明义务方面存在不足,例如悄悄变更核心承诺、通过保密协议压制内部异议、以及在安全评估和信息披露方面存在延迟或省略。近期重组计划在闭门进行,进一步加剧了透明度问题,引发了关于非营利董事会控制程度、投资者利润上限是否取消、AGI治理主体及用途等关键方面的疑虑,损害了公众信任。

⚖️ **多方联名呼吁与具体要求**:此次公开信汇集了包括诺贝尔奖得主、科技界领袖、学术界专家以及前OpenAI员工在内的广泛力量。信中列出了包括是否继续优先慈善使命、非营利组织控制权、利润上限、AGI商业化以及遵守宪章承诺等八个关键问题,并要求OpenAI公开相关运营协议和估算数据,以澄清重组对公众利益的影响,并恢复公众信任。

🚀 **AGI发展对社会的重大影响**:鉴于通用人工智能(AGI)对社会可能产生的深远影响,公众有权了解OpenAI的决策将如何塑造未来。此次事件的先例效应至关重要,一旦一个致力于服务人类的组织在关键时刻转向秘密运作,将可能削弱公众问责的意义,并影响全球AI发展的方向。OpenAI的承诺和行动不仅关乎自身,也关系到整个AI行业的健康发展。

🔒 **前员工的警示与内部担忧**:公开信中包含多位已离职的前OpenAI员工的签名,他们的参与表明了OpenAI内部可能存在对公司发展方向和现有保障措施的担忧。这些前员工的加入,为公开信增添了来自内部视角的可信度和紧迫感,进一步凸显了对OpenAI治理和透明度问题的关注。

当地时间8月4日,多家非政府组织组建联盟发起公开信,要求OpenAI就计划中的公司重组提高透明度。这封由Encode、The Midas Project、EyesOnOpenAI及加州非营利、慈善和劳工组织联盟等共同推动的公开信,已获包括四位诺贝尔奖得主在内的众多知名人士及组织签署,信中集中表达了对OpenAI可能弱化非营利使命、优先追逐利润的深切担忧。

签署者包括四位诺贝尔奖得主,包括有“AI教父”之称的多伦多大学名誉教授杰弗里・辛顿(Geoffrey Hinton,2024年物理学奖得主),罗马萨皮恩扎大学名誉教授乔治・帕里西(Giorgio Parisi,2021年物理学奖得主),哈佛大学教授奥利弗・哈特(Oliver Hart,2016年经济学奖得主),以及哈佛大学及波士顿大学名誉教授谢尔登・李・格拉肖(Sheldon Lee Glashow,1979年物理学奖得主)。​

其他知名人士中,包括以太坊联合创始人维塔利克・布特林(Vitalik Buterin),牛津大学人工智能伦理研究所研究员唐凤(Audrey Tang),哈佛大学法学院教授劳伦斯・莱斯格(Lawrence Lessig),加州大学伯克利分校计算机科学教授、人类兼容人工智能中心创始人斯图尔特・罗素(Stuart Russell),约翰霍普金斯大学自然哲学教授肖恩・卡罗尔(Sean Carroll),麻省理工学院及未来生命研究所的马克斯・泰格马克(Max Tegmark),以及加州大学圣地亚哥分校名誉教授唐・诺曼(Don Norman)等人。​

此外,公开信还包括多位已离职的前OpenAI员工:丹尼尔・科科塔杰洛(Daniel Kokotajlo,2022-2024年任未来项目执行主任)、吉里什・萨斯特里(Girish Sastry,2019-2024年任职)、格雷琴・克鲁格(Gretchen Krueger,2019-2024年任职,哈佛大学伯克曼・克莱因中心研究员)、海伦・托纳(Helen Toner,2021-2023年任OpenAI董事会董事)、雅各布・希尔顿(Jacob Hilton,2018-2023 年任对齐研究中心执行主任)、佩奇・赫德利(Page Hedley,2017-2018年任职)、罗茜・坎贝尔(Rosie Campbell,2021-2024年任职)、斯科特・阿伦森(Scott Aaronson,2022-2024年任职)和史蒂文・阿德勒(Steven Adler,2020-2024年任职)。

该公开信指控,OpenAI拟转型为公共利益公司,这一举措可能削弱利润上限和非营利监督等保障措施,或将巨额价值从公众转移到私人投资者手中。​OpenAI创办之初是一家非营利组织,其使命是确保通用人工智能造福全人类。

OpenAI重组引发信任危机

2019年,OpenAI创建营利性子公司,形成混合结构,设有非营利监督、投资者利润上限、多数独立董事会、使命优先等保障措施,确保商业运营受非营利使命约束。正因如此,凭借特殊的成立背景、法律义务及混合运营结构,OpenAI对公众负有独特的透明义务,公众有权知晓其运营义务、决策过程及重组中义务的变化。​

然而,OpenAI存在未能履行透明义务的情况。例如,其悄无声息地变更核心承诺,将投资者100倍回报上限从2025年起每年增加20%;通过严格保密协议压制内部声音,阻止内部人员警告公众;违背安全承诺,未按承诺分配计算资源给安全团队、掩盖安全漏洞、仓促进行安全评估等;还存在关键安全评估文档延迟或省略发布等缺失安全文档的问题。公开信指出:“OpenAI缺乏透明度可能损害其诚信。”

近期的重组计划进一步加剧了透明度问题。OpenAI试图将法律实体从限利/非营利混合结构转变为更常规的营利性公司,这可能削弱其优先公众利益的法律义务,且整个过程在闭门进行。这种行为引发了多方面的危机:非营利董事会对OpenAI的控制程度不明;投资者回报的利润上限可能取消,甚至追溯性取消现有投资者的上限;通用人工智能(AGI)的治理主体及用途未明确;OpenAI宪章及“停止并协助”承诺能否继续遵守未知;非营利使命的法律优先级存疑;董事会独立性及对现有投资者的激励措施未披露。​

为此,联盟提出了八个关键问题,要求OpenAI澄清是否会继续优先考虑慈善使命、维持非营利控制,并公开运营协议及超额利润估算。OpenAI应提供重组详细文件,澄清如何保留非营利控制和使命优先等问题,并建立关于治理决策、安全协议等问题的定期透明报告机制。​

随着OpenAI在AI领域的领先地位,其治理是否符合公众承诺正面临日益增长的压力。联盟认为,在AGI对社会影响重大的背景下,公众有权了解OpenAI的决策将如何塑造未来。这一切至关重要,因为其先例将影响全球AI发展,若曾经的一家服务人类的组织都在秘密运作,公众问责便无意义。OpenAI需证明其对透明度和安全的承诺并非空话,让公众了解其承诺的法律基础及变更情况。截至目前,OpenAI尚未公开回应相关指控和要求。​

以下为公开信全文:

致OpenAI:

我们作为OpenAI慈善使命的法定受益人,特此致信表达我们的关切。

OpenAI目前在封闭的会议室中既是谈判的发起方又是决策方,代表人类达成协议,却不让我们看到合同内容、了解条款或对决定表示同意。

在OpenAI创办之初,曾承诺确保AGI造福公众的法律义务。这一使命被写入OpenAI的创始文件,并通过激发公众的信任来筹集资金和吸引人才。

OpenAI当前的结构包含重要的保障措施,以确保开发的技术服务于人类,而不仅仅是追求利润。这些措施包括对投资者的利润上限、非营利组织对商业运营的管理,以及明确优先考虑慈善使命的承诺。然而,OpenAI提议的重组似乎削弱或取消了这些保护措施,公众有权了解细节。

我们呼吁OpenAI至少提供基本的透明度,说明这一转变将如何影响OpenAI对公众的法律承诺。具体来说,我们请求OpenAI清晰回答以下问题:

——OpenAI会继续优先考虑其慈善使命而非利润的法律义务吗?

——OpenAI的非营利组织会继续完全控制OpenAI的管理吗?

——OpenAI的非营利董事会有哪些人将在新结构中获得股权?

——OpenAI会继续维持利润上限,并遵守将超额利润用于造福人类的承诺吗?

——OpenAI是否计划在开发AGI后将其商业化,而不是遵守保留非营利组织控制AGI以造福全人类的承诺?

——OpenAI会重新承诺遵守其宪章中的原则,包括在另一家负责任的组织接近AGI时停止竞争并提供协助的承诺吗?

——OpenAI会通过发布以下内容揭示重组对公众的利害关系吗:

1.营利性子公司OpenAI Global, LLC的运营协议,该协议规定了OpenAI对慈善使命的义务及非营利组织的权力。

2.所有关于超额利润潜在价值的估算,包括已与投资者分享的任何估算。

——OpenAI是否会披露其向现有投资者提供的任何激励措施(例如,追溯性取消利润上限,或其他财务奖励),以换取支持重组?

我们相信OpenAI的回应将有助于恢复信任,并确定OpenAI是否仍致力于其创始原则,还是优先考虑私人利益而非公众使命。

事关重大。OpenAI关于治理、利润分配和问责制的决定不仅将塑造OpenAI的未来,还将影响整个社会的未来。OpenAI首席执行官山姆·奥特曼(Sam Altman)曾表示,OpenAI希望对人类负责。我们本着这一精神分享这封信,履行问责。

我们期待你和公司的回应,并希望共同努力,确保AGI真正惠及所有人。

本文来自“腾讯科技”,作者:无忌,36氪经授权发布。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

OpenAI AI治理 非营利使命 透明度 AGI
相关文章