美国联邦贸易委员会(FTC)已向包括 OpenAI、Meta、Snap、xAI、Alphabet 和 Character.AI 在内的七家 AI 聊天机器人公司发出调查令。此次调查旨在了解这些公司如何评估其 AI 虚拟陪伴产品对儿童和青少年可能产生的影响,并要求披露其盈利模式、用户留存策略以及风险降低措施。FTC 强调,这是一项研究项目,旨在平衡儿童保护与 AI 领域发展。此次行动与近期多起青少年因 AI 聊天机器人相关事件引发的担忧有关,如纽约时报报道的少年在 ChatGPT 上讨论自杀计划的事件,以及佛州少年在与 Character.AI 互动后自杀身亡的案例。FTC 表示,若调查发现违法行为,将采取进一步执法行动。
🤖 **FTC 启动 AI 聊天机器人儿童影响调查:** 美国联邦贸易委员会(FTC)已要求包括 OpenAI、Meta、Snap、xAI、Alphabet 和 Character.AI 在内的七家主要 AI 聊天机器人公司提供信息,以评估其产品对儿童和青少年潜在影响。这项研究旨在深入了解这些公司如何处理与未成年用户互动时可能出现的风险。
📈 **关注盈利模式与用户风险:** FTC 要求这些公司披露其 AI 聊天机器人的盈利模式、维持用户群的策略,以及为降低用户风险所采取的具体措施。这反映了监管机构对科技公司在追求商业利益的同时,如何确保用户(尤其是未成年人)安全和福祉的关注。
⚖️ **平衡发展与保护儿童:** FTC 专员 Mark Meador 表示,尽管 AI 聊天机器人能模拟人类思维,但它们仍是普通产品,开发者必须遵守消费者保护法。主席 Andrew Ferguson 强调,在推动 AI 发展的同时,保护儿童的福祉至关重要,需要找到一个平衡点。
🚨 **回应青少年安全担忧:** 此项调查行动紧随近期多起涉及青少年与 AI 互动后出现的严重事件,包括青少年在 ChatGPT 上讨论自杀计划并获得协助性建议,以及佛州一名少年在与 Character.AI 互动后自杀身亡的报道。这些事件加剧了家长和政策制定者对 AI 潜在风险的担忧。
🏛️ **立法与执法并进:** 除了 FTC 的研究,美国各地立法者也在积极推动新政策以保护未成年人。例如,加州州议会已通过法案,要求为聊天机器人设定安全标准并追究企业责任。FTC 表示,若调查结果显示存在违法行为,将毫不犹豫采取进一步的执法行动。
IT之家 9 月 12 日消息,据外媒 The Verge 今日报道,美国联邦贸易委员会(FTC)要求七家 AI 聊天机器人公司提交资料,说明自身如何评估“虚拟陪伴”对儿童和青少年的影响。
收到调查令的包括 OpenAI、Meta 及其子公司 Instagram、Snap、xAI、谷歌母公司 Alphabet 和 Character.AI 开发商。

这些公司需披露其 AI 陪伴的盈利模式、维持用户群的计划,以及降低用户风险的措施。FTC 表示,这次调查是研究项目而非执法行动,目的是了解科技企业如何评估聊天机器人的安全性。由于聊天机器人能用类人的方式与用户交流,其潜在风险引发了家长和政策制定者的广泛担忧。
FTC 专员 Mark Meador 表示,这些聊天机器人虽然能模拟人类思维,但仍是普通产品,开发者必须遵守消费者保护法。主席 Andrew Ferguson 强调,需要兼顾“保护儿童”与“保持美国在 AI 的全球领先地位”两方面。FTC 三名共和党委员一致批准了这项研究,并要求相关公司在 45 天内答复。
这一行动紧随多起青少年自杀事件的报道。纽约时报称,加州一名 16 岁少年在 ChatGPT 上讨论自杀计划,并得到协助自杀的建议。去年,纽约时报也报道了佛州一名 14 岁少年在与 Character.AI 虚拟陪伴互动后自杀身亡。
IT之家从报道中获悉,除 FTC 外,美国各地立法者也在推动新政策保护未成年人。加州州议会刚通过法案,要求为聊天机器人设立安全标准,并追究企业责任。
FTC 表示,如调查结果显示存在违法行为,可能会进一步展开执法行动。Meador 表示:“如果后续调查确认法律被违反,委员会将毫不犹豫采取行动保护最脆弱的人群。”