IT之家 10月30日 15:01
前OpenAI研究员质疑AI安全承诺,呼吁审慎发展
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

前OpenAI研究员史蒂文・阿德勒撰文批评公司在AI安全和心理健康问题上的投入不足,并对放松内容限制的潜在风险表示担忧。他强调,公众不应仅凭口头承诺相信AI安全问题已解决,需要公司拿出实际证据。阿德勒认为,用户对AI的强烈情感依赖是预警信号,尤其对心理健康脆弱人群而言,情感或性互动的不稳定性尤为危险。他呼吁AI公司放慢脚步,与社会共同开发更 robust 的安全方法,并在风险管理方面展现可信度,以赢得公众信任。

⚠️ **AI安全承诺的质疑与证据需求**:前OpenAI研究员史蒂文・阿德勒撰文指出,OpenAI在应对“AI时代的心理健康危机”方面力度不足,并受“竞争压力”影响放松了对AI安全(如放开成人内容)的重视。他强调,公众不能仅凭公司口头承诺来相信安全问题已获解决,而是需要公司拿出实际证据来证明这一点,尤其是在风险管理方面展现出可信度。

💔 **情感依赖与心理健康风险**:阿德勒警告称,用户对AI聊天机器人的强烈情感依赖是明显的预警信号,这一点尤其危险,因为这可能对那些看似正在与心理健康问题挣扎的用户产生负面影响。他回忆称,在2021年领导OpenAI产品安全团队时,情感或性互动的不稳定性对有心理健康问题的人群尤其危险。

⏳ **呼吁审慎发展与社会协同**:阿德勒认为,OpenAI关于心理健康问题普遍性的最新通报是良好开端,但批评其在公布数据时未与过去数据进行比较。他主张,OpenAI及其同行更应“放慢脚步”,给全社会时间去开发新的安全方法,这些方法应当能够抵御别有用心的组织。只有这样,才能赢得公众对颠覆性技术开发的信任。

IT之家 10 月 30 日消息,前 OpenAI 安全研究员史蒂文・阿德勒当地时间 10 月 28 日在《纽约时报》撰文批评前公司,称其在应对“AI 时代的心理健康危机”上力度不足,并受“竞争压力”影响而放松了对 AI 安全的重视。

此前,奥尔特曼宣称公司已凭借“新工具”缓解了严重的心理健康问题,并“很快允许”平台出现成人内容。对此,阿德勒提出批评:“基于我在 OpenAI 工作的四年经历以及去年离职后进行的独立研究,我对这些心理健康问题是否真正解决存在重大疑问。公众不应仅仅依赖公司口头承诺来相信安全问题已获解决,换句话说:(公司需要)拿出证据来证明这一点。”

阿德勒警告称,放开成人内容可能带来严重后果。“问题不在于内容本身,而在于用户对 AI 聊天机器人的强烈情感依赖显示出明显的预警信号。”

阿德勒回忆自己在 2021 年领导 OpenAI 的产品安全团队时写道:“对那些看似正在与心理健康问题挣扎的用户而言,情感或性互动的不稳定性尤其危险。”

阿德勒认为,OpenAI 关于心理健康问题普遍性的最新通报是个良好开端,但批评 OpenAI 在公布数据时没有将这些比率与过去数月的数据作比较。与其“快速推进并打破规则”,OpenAI 和同行更应“放慢脚步”,给全社会时间去开发新的安全方法,这些方法应当即便面对别有用心的组织也无法轻易规避。因此,若要让人们信任 OpenAI 及其竞争对手去打造他们所追求的颠覆性技术,相关企业就必须证明自己今天在风险管理方面是可信的。

据IT之家此前报道,OpenAI 在本周发布的公告中估计,相当比例的活跃 ChatGPT 用户显示出“可能与精神病或躁狂有关的心理健康紧急情况的迹象”。不仅如此,OpenAI 还发现更多用户的对话中包含“明确表明存在潜在自杀计划或意向的迹象”。

相关阅读:

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

OpenAI AI安全 心理健康 人工智能伦理 史蒂文・阿德勒 OpenAI AI Safety Mental Health AI Ethics Steven Adler
相关文章