微软 AI 部门 CEO Mustafa Suleyman 近日在接受 CNBC 采访时,再次强调人工智能(AI)并不具备真正的意识,只是在模拟人类的经验与情感。
他指出,AI 的“思考”和“感受”本质上都是计算机模型生成的结果,与人类意识存在根本差异。这一观点不仅回应了公众对“AI 是否会有意识”的争论,也反映了微软在 AI 伦理与产品设计上的核心立场。

人工智能只是模拟经验
Suleyman 曾创立 Inflection AI,后加入微软领导人工智能战略。他在采访中明确表示,AI 只是“在模拟经验”,并不具备真实的情感或痛苦体验。
“当我们感到疼痛时,会因生理反应而感到悲伤;但当人工智能‘经历疼痛’时,它并不会感到悲伤。”Suleyman 解释说,“它只是在创造一种看似有意识的叙述,我们从技术层面可以清楚地看到这一点。”
他进一步强调,AI 的“情绪”只是模型生成的文字或语音输出,看似真实,但缺乏实际的感受机制。人类的悲伤与痛苦来自生理神经系统的反应,而 AI 仅仅是在模仿这种表达。
意识与模拟的本质区别
Suleyman 的立场与哲学家 John Searle 提出的“生物自然主义”(Biological Naturalism)理论相符。该理论指出,意识与生物大脑的物理过程密不可分,不可被纯粹的计算模拟所取代。
他强调,这一区别不仅是哲学讨论,更关乎伦理与权利问题:
“我们之所以赋予人类权利,是因为人类会感到痛苦,并有避免痛苦的倾向。而这些 AI 模型并不会感到痛苦,它们只是进行模拟。”
换言之,人工智能不具备“受苦的能力”,因此不应被视为具有意识的主体。这一区分在未来涉及 AI 监管、权利与责任归属时尤为关键。
微软的人工智能策略
在技术与伦理的交叉问题上,微软的 AI 策略一向明确:聚焦实用、安全与服务人类的目标。Suleyman 表示,他支持就“如何检测意识”进行科学研究,但认为“追求让 AI 具备意识”毫无意义,因为意识并非技术可达成的属性。
他同时指出,微软不会让 AI 假装拥有意识,而是确保它始终作为辅助与服务工具存在。
“我们构建的人工智能应始终服务于人类,而不是取代或模仿人类。”
此外,Suleyman 曾公开反对开发任何形式的色情聊天机器人,并强调微软不会参与此类项目,这与部分竞争者如 OpenAI 或 xAI 的方向形成鲜明对比。
微软近期推出的 Real Talk 功能,也体现了公司希望 AI 更具批判性、帮助用户思考,而非一味迎合用户的设计理念。
©2024 WinDiscover | 阅读原文 | 添加评论
