原创 彭晨 2025-10-17 15:02 湖南
AI与认知科学的相互借鉴
摘要
人工智能(AI)的最新进展,包括生成式方法等,正在支持人类进行科学发现和决策,但同时也可能威胁民主制度和个人安全。如何更负责任地使用 AI ,AI 如何参与到“人机团队”中,越来越需要“AI 对齐”,也就是让 AI 系统按照人类的偏好行事。在这一过程中,一个很关键却常被忽视的方面是人类与机器在“泛化”方式上的差异。在认知科学中,人类的泛化通常涉及抽象化与概念学习;而在 AI 中,泛化包括机器学习中的跨领域迁移、符号 AI 中的规则推理,以及神经符号 AI 中的抽象。本文结合 AI 与认知科学的视角,从三个维度——对泛化的概念、方法以及评估方式——梳理两者的共性与差异,并探讨这些差异在人机协作对齐中的意义。最终,作者指出,未来的人机协作需要跨学科的挑战和创新,以实现更有效、更符合认知规律的对齐。
关键词:人工智能对齐(AI alignment),泛化(generalization),认知科学,神经符号AI(neurosymbolic AI),人机团队(human–AI teams)
彭晨丨作者
论文题目:Aligning generalization between humans and machines
论文链接:https://www.nature.com/articles/s42256-025-01109-4
发表时间:2025年9月15日
论文来源:Nature Machine Intelligence
AI 对齐的新命题:泛化的挑战
AI 对齐的新命题:泛化的挑战
随着大模型与生成式 AI 的崛起,人工智能逐渐在复杂任务中与人类并肩作战——从科学假设的提出到医学影像的辅助诊断。然而,AI 的能力也给人类带来了风险,例如民主受威胁、隐私泄露与舆论操纵。在这样的背景下,“AI 对齐”成为全球学术界与产业界共同关注的焦点。
所谓对齐,本质上是要让 AI 在复杂环境中按照人类的目标和价值行事,但一个常被忽视的关键点在于,人类与机器“泛化”的方式存在巨大差异。泛化,简单说,就是将有限经验推向更广阔情境的能力,它是人类认知和 AI 通用智能的核心。在人类世界,泛化意味着从个别实例中抽象出概念与规律。例如,一个孩子见过几次“狗”,便能在不同场景下认出新的狗。而机器的泛化则不同:在神经网络 AI 中,泛化依赖“分布一致”假设,通过学习大规模数据的统计模式获得智能;符号 AI 则以逻辑规则和符号知识推理为核心;神经符号 AI 则试图整合两者,实现更接近人类的抽象能力。
因此,如何对齐人类与机器在泛化方式上的差异,是构建可靠人机团队(human-AI teams)的前提和挑战。
图 1. 比较人类和统计机器各自的优势,说明二者在人机团队场景中的互补性。人类擅长组合性、常识、从少数例子中抽象化和鲁棒性。统计机器学习在大规模数据和推理效率、推理正确性、处理数据复杂性和近似的通用性方面表现出色。对于人类和机器来说,过度泛化带来的偏差都仍然是一个挑战。协作和可解释的机制是实现人机团队对齐的关键。
人类与机器的平行启发
人类与机器的平行启发
文章特别梳理了认知科学与 AI 的长期互动历史。上世纪 50 年代,心理学家 Bruner 等人发现,人类能够通过有限的例子归纳出抽象规则,并在新环境中灵活运用,直接启发了最早的决策树算法。
随后,认知科学提出的原型理论(prototype theory)认为,人类在分类时往往依赖一个“原型”来衡量相似性。例如,当我们辨认一只动物是否是“鸟”,通常会在头脑中与“典型的鸟”——比如麻雀或鸽子——进行比较,这个思路催生了“最近邻”方法的发展,机器则通过计算样本间的距离来判断所属类别。
更具启发性的是类比推理,认知科学家发现,人类在解决问题时常常借助跨领域的类比,将熟悉情境中的关系映射到陌生领域。这一现象在 80 年代被形式化为“结构映射理论(structure-mapping theory)”,并在人工智能研究中发展出迁移学习与结构映射引擎(structure-mapping engine)等方法。今天,当我们谈论大模型如何将一种任务的知识迁移到全新的任务时,其背后正延续了这一心理学发现。
图 2.人类泛化的示例及其对基于规则、基于示例和统计的ML方法的启发。a,左:使用背景理论“父母”学习新的关系“祖父母”;中:使用连接规则;右:使用树结构域表征的贝叶斯推理出陌生物体名称。b,左:基于实例的原型表征,中:情境效应,右:类比。c,统计泛化:语义记忆的神经网络模型。
与此同时,AI 与认知科学也并非单向借鉴,而是在长期互动中呈现出某种“平行演进”。认知心理学揭示了人类如何通过少量信息实现抽象与迁移,而 AI 则尝试将这些规律算法化,却逐渐走向以大规模数据和统计优化为驱动的路径。人类能够在有限经验下展现出灵活而稳健的泛化,而机器学习模型虽然在数据充足时表现卓越,却往往在分布外(out-of-distribution, OOD)场景下暴露脆弱性,甚至可能被“对抗样本”(adversarial examples)轻易误导。
因此,人类与机器在泛化方式上的差异并非偶然,而是长期学科互动中逐渐形成的结构性差距。这种差距一方面凸显了二者的互补性:人类擅长因果与概念抽象,机器则在模式识别与规模计算上更具优势;另一方面,也提示我们,人机协作必须正视这种差异,通过跨学科的方法实现更深层次的对齐。
泛化的三重维度:过程、产物与算子
泛化的三重维度:过程、产物与算子
在回顾了认知科学与人工智能的长期互动之后,作者进一步指出,如果要真正理解人机在“泛化”上的异同,仅仅依靠历史案例或方法论比较还不够。泛化作为认知与计算的核心机制,其内涵远比单一的“从例子到规律”复杂。为了更清晰地界定研究对象,作者提出了一个三重视角,将泛化理解为过程、产物与算子。这一框架既帮助我们系统梳理认知科学中的相关发现,也为人工智能提供了分析泛化能力的共同语言。
泛化作为过程
这一视角强调泛化的生成机制。对于人类而言,泛化过程通常遵循“抽象—迁移—类比”的路径:先从具体实例中抽象出概念模式,再将这一模式迁移到新的情境,最后通过类比进行灵活改造。比如,一个孩子学习“椅子”这个概念时,不仅能识别出不同形态的椅子,还能在新场景下把从未见过的座椅归入这一范畴。AI 的对应机制包括概念挖掘与规则学习(abstraction)、多任务与持续学习(extension)以及迁移学习和类比推理(analogy)。这一层面凸显的是“泛化如何发生”的问题。
泛化作为产物
泛化并不止于学习过程,它还会生成具体的认知或计算结构。在人类认知中,泛化的产物可以是“原型”(prototype)、“例证”(exemplar)或一套规则。在 AI 中,类似的产物则表现为决策树(decision trees)、最近邻模型(k-nearest neighbours),或者概率分布模型。尤其在生成式 AI 中,模型通过学习得到的概率分布来生成新的实例,其本质就是把“泛化的产物”直接用于创造。这一层面强调“泛化得到的是什么”。
泛化作为算子
这是机器学习领域最常用的理解:泛化是指模型能否将训练中学到的规律成功应用到新的数据上。换言之,泛化可被视为作用于经验与知识之间的算子,它将有限样本映射为可迁移的规律。经典理论如 PAC 学习(Probably Approximately Correct learning)、统计物理学习理论(statistical physics of learning)和 VC 维理论(Vapnik–Chervonenkis dimension),都在这一框架下展开。但文章提醒,这些理论通常假设需要大规模数据才能保证泛化,而人类却能在少量经验下实现稳健推理。这一差异表明,现有的数学理论不足以解释人类式的“少样本学习(few-shot learning)”,而这是 AI 对齐的重要挑战。
三类机器泛化方法:
统计、知识驱动与基于实例
三类机器泛化方法:
统计、知识驱动与基于实例
在对人类与机器的泛化方式进行对比之后,作者进一步提出人工智能的三大类泛化方法:统计泛化、知识驱动泛化以及基于实例的泛化。这一划分不仅揭示了不同算法范式的内在逻辑,也为我们理解它们与人类认知的异同提供了清晰框架。
统计泛化
统计方法是当代 AI 的主流,以深度学习为代表。其核心思想是:通过对大规模观测数据进行优化,寻找能在总体上最小化预测误差的模式。比如,卷积神经网络(CNN)能够在数百万张图像中学到视觉特征,从而在图像识别中达到远超人类的准确度。这类方法的优势在于普适性和推理效率:只要有足够多的数据与算力,它们几乎可以逼近任何函数,具备“普适逼近能力”(universality of approximation)。
然而,统计泛化的局限也十分明显。首先,它们往往表现为“黑箱”,缺乏可解释性,难以回答“为什么得出这个结果”;其次,它们通常局限于训练分布之内,一旦面对分布外(out-of-distribution, OOD)的数据,性能可能急剧下降。对抗样本(adversarial examples)就是典型例子:图像中轻微的像素扰动就足以误导深度网络,把“熊猫”识别成“长臂猿”。这类脆弱性表明,统计方法虽然在规模和效率上占优,却难以完全对齐人类的稳健泛化。
知识驱动泛化
与纯数据驱动不同,知识驱动方法试图引入外部理论或符号规则来约束和引导模型。常见形式包括因果模型(causal models)、机制模型(mechanistic models)和符号逻辑(symbolic logic)。它们的优势在于可解释性与组合性:推理链条往往可以被人类直接理解,模型也能在新情境中组合已有知识,从而展现出类似人类的系统化泛化(systematic compositionality)。例如,在医学诊断中,一个因果图谱可以直接呈现“吸烟—肺癌”之间的因果关系,并在新环境中稳健迁移。再如,描述逻辑和知识图谱能显式地表示“父母—祖父母”的关系规则,使 AI 系统在面对陌生实例时仍能正确推理。
不过,知识驱动方法也面临挑战:首先,它们需要对领域知识进行形式化建模,而现实世界的知识往往难以完整刻画;其次,结构学习和参数估计的计算成本很高,导致这些方法在大规模任务中效率有限。因此,它们虽然在可解释性上接近人类认知,却难以匹敌统计模型在规模和性能上的优势。
基于实例的泛化
第三类方法强调“从个例到个例”的迁移,典型代表是最近邻算法(k-nearest neighbours)和案例推理(case-based reasoning)。它们并不试图建立一个全局模型,而是在遇到新问题时,直接检索相似的历史实例并进行类比。这种方式与人类的类比推理高度契合:当我们判断一个新工具的用途时,往往会联想到曾见过的类似物品。
实例驱动方法的优势在于灵活性与持续学习能力。它们可以不断积累新案例,应对概念漂移和环境变化;在少样本场景下,也能凭借已有的“记忆”做出合理推断。这一机制天然契合“终身学习(lifelong learning)”,同时在一定程度上避免了深度学习中常见的“灾难性遗忘(catastrophic forgetting)”。但它们的弱点也不可忽视:模型的性能高度依赖于表征方式(representation)。如果特征表示不足,系统就无法正确判断相似性。此外,随着案例库的不断扩展,存储与检索效率也可能成为瓶颈。
泛化的评估:从理论保证到经验检验
泛化的评估:从理论保证到经验检验
对齐人类与机器的关键不止在于方法,还在于评估。作者指出,目前的评估面临多重挑战:(1)分布漂移(distributional shift),训练与测试数据差异导致性能急剧下降。(2)欠泛化与过泛化,模型要么对微小变化过度敏感,要么过度自信地产生“幻觉”。(3)记忆与泛化的平衡(memorization vs. generalization),AI 既需要记住事实知识(如“巴黎是法国首都”),又要能在新环境下灵活迁移。
在基础模型(foundation models)时代,这些问题尤为突出。比如,ChatGPT 在其训练前的基准测试上表现优异,但在训练后发布的新基准上显著退步,这揭示了“数据泄漏”与“测试污染”的风险。因此,未来的评估不仅要有理论上的鲁棒性保证,也要有跨任务、跨领域的实证检验,并特别强调与人类认知的对比。
未来方向:跨学科的对齐蓝图
未来方向:跨学科的对齐蓝图
在文章的结尾,作者把目光投向了人机对齐的未来研究方向。
(1)基础模型的泛化理论:零样本与小样本的边界
随着大规模基础模型(foundation models)的崛起,AI 在零样本(zero-shot)和小样本(few-shot)条件下展现出了惊人的能力。但作者提醒我们,这种泛化往往建立在不透明的训练语料之上,存在“数据污染”的风险。未来,研究需要建立更严谨的理论框架,对零样本与小样本条件下的泛化进行可证明的刻画,明确其适用范围和边界条件。
(2)神经符号方法的进化
单纯依赖深度学习的统计泛化在解释性和稳健性上存在缺陷,而纯粹的符号逻辑系统又难以扩展至复杂的现实场景。神经符号 AI(neurosymbolic AI)的兴起,正是试图将两者融合:利用深度学习建模复杂数据,再通过符号逻辑进行规则约束与可解释推理。未来的研究不仅要强化这种结合,还需引入更复杂的符号体系,例如描述逻辑或知识图谱,以增强模型对抽象概念和层级结构的理解。
(3)持续学习与概念漂移
现实世界并非静态,数据分布随时间不断变化,这对 AI 提出了“持续学习”的挑战。为此,未来研究需要在多方面展开:一是发展更高效的记忆机制,让模型能够保留长期经验;二是引入“概念漂移”的检测与应对手段,让模型在环境改变时及时调整;三是探索“神经符号原型”或“实例驱动记忆”,借鉴人类的类比学习能力,增强模型在动态环境中的稳健性。
(4)人机团队对齐与法律框架
未来的 AI 不会是孤立的工具,而将深度嵌入人类的决策流程。从医疗诊断到公共政策,AI 与人类专家将形成“人机团队”(human–AI teams)。这也提出了新的要求:一方面,AI 必须能够提供可解释性,让人类理解其推理路径;另一方面,人类需要有机会进行纠偏与校正,避免模型在关键任务上出现偏差。
(5)跨学科的整合
泛化的对齐问题并非单一的工程难题,而是横跨计算机科学、认知心理学、法律、哲学甚至伦理学的系统性挑战。未来的研究需要跨学科联盟:认知科学帮助理解人类如何抽象与类比;计算机科学推动算法与架构创新;法学与伦理学确保技术应用符合社会价值;教育与心理学则能指导人类如何在团队协作中更好地理解与使用 AI。
人类与机器的泛化差异不应被视为障碍,而应被理解为互补。通过跨学科的努力,我们或许能迎来一种真正的人机协作新范式。
「大模型时代下的人机交互与协同」
读书会
集智俱乐部联合中国科学技术大学教授赵云波、华东师范大学副教授吴兴蛟两位老师共同发起「大模型时代下的人机交互与协同」读书会。本次读书会将探讨:
人类智能和机器智能各自的优势有哪些?智能边界如何?如何通过更有效的标注策略和数据生成技术来解决数据稀缺问题?如何设计更加高效的人机协作系统,实现高效共赢的效果?如何提高机器决策的可解释性与透明性,确保系统的可信度?如何通过多模态协作融合不同感知通道,应对复杂的决策任务?
读书会从7月5日开始,预计持续约8周。诚挚邀请领域内研究者、寻求跨领域融合的研究者加入,共同探讨。
详情请见:人类与机器的智慧碰撞:人机协同的智能时代读书会启动
推荐阅读
2. Nature子刊: 人机社会学——一种融合人类与机器的全新社会学框架
3. Nat.Mach.Intell. AI+psy 速递:大语言模型时代下的人机交互与协作
5. 集智学园精品课程免费开放,解锁系统科学与 AI 新世界
7. 重整化群与非线性物理,寻找复杂系统跨尺度的分析方法丨新课发布
点击“阅读原文”,报名读书会
