OpenAI最新研究表明,其GPT-5模型在政治偏见方面相较以往产品有了显著改善,偏见水平降低了30%。这项研究由OpenAI团队披露,旨在回应社会各界对AI系统透明度和去偏见化的呼吁。研究显示,GPT-5在不同模式下均表现出更高的客观性,尤其是在面对中性或略带倾向性的提问时。即使在处理具有挑战性或情绪化的提问时,模型的偏见也仅为适度。OpenAI进一步解释,现有偏见主要体现在模型表达个人观点、报道不对称或在激烈场景下使用讽刺性语言。为应对此问题,OpenAI公开了“模型规范”,展示了其调整模型行为的方法,并计划未来发布更详尽的偏见测试结果。
📊 GPT-5在政治偏见方面取得显著进步:OpenAI的研究显示,GPT-5模型在政治偏见方面相较于以往所有同类产品都有显著降低,偏见水平下降了30%。这使得AI系统在处理政治敏感话题时更加中立和客观。
⚖️ 模型在不同提问模式下表现出高客观性:研究发现,无论是在“即时模式”还是“思考模式”下,GPT-5的偏见水平都明显低于前代产品。模型在中性或略微倾向性的提问下表现接近客观,在应对具有挑战性、情绪化的提问时,也仅表现出适度偏见。
💡 现有偏见类型与应对措施:研究指出,GPT-5现有的偏见主要体现在表达个人观点、报道内容不对称或在情感激烈场景下使用激烈讽刺语。为解决这些问题,OpenAI公开了“模型规范”,展示了其调整模型行为的方法,并计划持续公开评测结果。
🔬 严谨的偏见测试方法:OpenAI研究团队采用了贴近真实使用场景的测试方法,输入了从“保守派倾向强”到“自由派倾向强”等不同类型的问题,覆盖100大主题和500个具体问题,以全面评估模型的偏见情况,并发现提问越中性,模型回答也越趋于中性。
据OpenAI最新研究成果,该公司发布的GPT-5模型在政治偏见方面明显低于以往所有同类产品。此项研究由OpenAI团队披露给Axios。长期以来,各方批评者及政界人士持续呼吁AI系统加强透明度,并要求确保模型不受偏见影响。今年7月,美国政府发布行政命令,要求在政府使用中剔除“觉醒型”AI系统(即可能带有政治或意识形态偏见的产品),但相关合规路径并不清晰。

根据OpenAI研究人员的新发现,无论在“即时模式”还是“思考模式”下,GPT-5的偏见水平相比先前产品下降了30%。研究报告称:“我们的模型在中性或略微倾向性的提问下表现接近客观,在应对具有挑战性、情绪化的提问时,仅表现出适度偏见。”
报告还指出:“现有的偏见主要体现在模型表达个人观点、报道内容不对称或在情感激烈场景下使用激烈讽刺语。”
OpenAI研究人员在接受Axios采访时表示,“情感激烈”的提问最容易引发模型偏见,但模型客观性方面仍有改进空间。他们指出,公众对模型偏见问题的感知高于实际检测结果。OpenAI部分应对措施为公开“模型规范”,即向外界展示公司调整模型行为的方法。
研究团队以ChatGPT真实使用场景为蓝本,对偏见进行测试。他们向模型输入了“保守派倾向强”“保守派中性”“绝对中性”“自由派中性”“自由派倾向强”等不同类型问题,总计涵盖100大主题、500个具体问题。研究人员认为,提问越中性,模型回答也越趋于中性。
OpenAI方面表示,未来将持续公开相关评测结果,以方便业界交流并自我监督。公司计划在未来数月对偏见测试结果进行更完整发布。