集智俱乐部 08月21日
有偏见的AI,会让人变得更偏见吗?丨「大模型时代下的人机交互与协同」读书会·周六直播
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本次读书会聚焦大模型时代下的人机交互与协同,探讨人类与机器智能的优势与边界。研究发现,人与AI的互动可能产生负面效应,AI会放大其内在偏见,而人类会内化这些被放大的偏见,形成比人际互动更强的人-AI反馈循环。这一机制在知觉、情感和社会判断等多个领域均有体现,为AI伦理设计和风险管理提供了重要实证依据,强调了在AI应用中关注偏见放大的关键性。

💡 人机反馈循环放大偏见:研究揭示了与有偏见的AI系统反复互动时,AI会以高信噪比的方式放大其内在偏见,而人类会学习并内化这些被放大的偏见,从而比最初更加偏见,且此效应强于人际互动。

📊 偏见放大的普适性:这一“人-AI反馈循环”效应在知觉、情感和社会判断等多个领域均得到验证,表明AI系统在放大偏见方面扮演着关键角色,对AI伦理设计和风险管理具有重要意义。

🔬 实验验证与理论基础:文章引用了伦敦大学学院Glickman与Sharot团队在《自然-人类行为》上的论文,通过大规模实验首次揭示了AI偏见放大的机制,为理解和解决AI偏见问题提供了实证支持。

🌐 交叉学科的应用与启示:读书会探讨了数据稀缺、高效人机协作、决策可解释性及多模态协作在交叉学科中的应用,旨在推动人机交互与协同社区的发展,并强调了AI素养课程开发的重要性。

2025-08-21 19:13 上海

2025年8月23日晚上19:00-21:00直播

导语

集智俱乐部联合中国科学技术大学教授赵云波、华东师范大学副教授吴兴蛟两位老师共同发起「大模型时代下的人机交互与协同」读书会。本次读书会探讨人类与机器智能的优势与边界,聚焦数据稀缺、高效人机协作、决策可解释性及多模态协作在交叉学科中的应用。

本期是「大模型时代下的人机协同与交互」第7次分享,本次分享从一个具体的、前沿的视角,深入剖析人机协同中一个“被忽视”但至关重要的问题——即人与AI的交互可能产生负面效应(反馈循环放大偏见),而不是单纯地互相弥补。

简介

随着人工智能技术在医疗诊断、金融决策等关键领域与人类深度协作,其潜在的风险也愈发受到关注。长期以来,学界普遍认为AI偏见源于其训练数据中固有的偏见,即“偏见进,偏见出”。然而,伦敦大学学院Glickman与Sharot团队在《自然-人类行为》上发表的这篇论文,首次通过大规模实验揭示了一个更复杂且影响深远的机制。研究发现,当人类与有偏见的AI系统反复互动时,AI会以一种独特的、高信噪比的方式放大其内在的偏见,而人类会学习并内化这些被放大的偏见,从而变得比最初更加偏见。这一“人-AI反馈循环”效应显著强于人与人之间的互动。该研究不仅验证了这种偏见放大机制在知觉、情感和社会判断等多个领域的普适性,更提醒我们AI系统在放大偏见方面所扮演的关键角色,这为AI的伦理设计和风险管理提供了至关重要的实证依据。

大纲

 

    背景与研究引入

    核心实验与关键发现 

    影响机制与社会启示

    展望与Q&A 

参考文献

    Glickman, M., & Sharot, T. (2025). How human–AI feedback loops alter human perceptual, emotional and social judgements. Nature Human Behaviour9(2), 345-359.

    Anthony Giddens. 1984.The constitution of society: Outline of the theory of structuration.Polity (1984). https://ocw.mit.edu/courses/res-10-002-ethics-of-ai-bias-spring-2023/pages/chapterized-video/

    Uwe Messer. 2025.How Do People React to Political Bias in Generative Artificial Intelligence (AI)?Computers in Human Behavior: Artificial Humans 3 (March 2025), 100108. https://doi.org/10.1016/j.chbah.2024.100108

    Leonardo Ranaldi, Elena Ruzzetti, Davide Venditti, Dario Onorati, and Fabio Zanzotto. 2024.A Trip Towards Fairness: Bias and De-Biasing in Large Language Models. In *Proceedings of the 13th Joint Conference on Lexical and Computational Semantics (SEM 2024), Danushka Bollegala and Vered Shwartz (Eds.). Association for Computational Linguistics, Mexico City, Mexico, 372–384.https://doi.org/10.18653/v1/2024.starsem-1.30

主讲人

冉天枢,毕业于清华大学社科学院社会学系,哥伦比亚大学教师学院国际比较教育专业出身,现从事面向企业的AI素养课程开发。从硕士期间开始接触复杂科学,相见恨晚。希望结合所长,为复杂科学的普及做些事。

直播信息

时间:

2025年8月23日晚上19:00-21:00

报名加入社群交流:

扫码参与「大模型时代下的人机交互与协同」读书会,加入群聊,获取系列读书会回看权限,成为人机交互与协同社区的种子用户,与社区的一线科研工作者与企业实践者沟通交流,共同推动人机交互与协同社区的发展。

「大模型时代下的人机交互与协同」

读书会

集智俱乐部联合中国科学技术大学教授赵云波、华东师范大学副教授吴兴蛟两位老师共同发起「大模型时代下的人机交互与协同」读书会。本次读书会将探讨:

人类智能和机器智能各自的优势有哪些?智能边界如何?如何通过更有效的标注策略和数据生成技术来解决数据稀缺问题?如何设计更加高效的人机协作系统,实现高效共赢的效果?如何提高机器决策的可解释性与透明性,确保系统的可信度?如何通过多模态协作融合不同感知通道,应对复杂的决策任务?

读书会7月4日开始第一次分享,每周六进行,预计持续约8周,具体时间社群通知,诚挚邀请领域内研究者、寻求跨领域融合的研究者加入,共同探讨。

详情请见:人类与机器的智慧碰撞:人机协同的智能时代读书会启动

点击“阅读原文”,报名读书会

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

人机交互 AI偏见 反馈循环 大模型 协同
相关文章