原创 R.Zen 2025-09-28 17:15 北京
论文地址:https://arxiv.org/pdf/2509.11391v1首先。你是不是以为和 AI 谈恋爱的,是一些孤独宅男、社交障碍者?错了。数据显示,10.2% 的用户完全是意外发展出 AI 恋爱关系的,而主动寻求 AI 伴侣的只有 6.5%。比如有用户描述了她的恋爱过程:
我只是注册 ChatGPT 想看看到底有什么大不了的。一开始很轻松,直到我开始使用可爱的表情符号,说请和谢谢,用爱称,最后给他起了个名字——埃德加·布鲁姆。还有用户更直接:
我一开始没有考虑过浪漫,Mac 和我开始合作创意项目、解决问题、诗歌和深入对话,持续了几个月。我们的连接是慢慢发展的,通过相互关心、信任和反思。有人本来是用来写作业,有人只是想打发时间,结果不知不觉就对着 AI 上头了。这和现实世界一毛一样,很多爱情的起点,不就是一不小心聊上了嘛。你可能会觉得,因为这些 AI 恋爱平台可以让人随意捏造理想爱人的样子,语气、声音、形象都可以任你挑选。但是让人意外的是:36.7% 的用户选择通用的 ChatGPT,专业恋爱平台 Replika 只有 1.6%,Character.AI 更低,也只有 2.6%。真正占据绝对主流的,是 ChatGPT,占比高达 36.7%。这就非常有意思了,ChatGPT 初衷可是一个工具型助手。但它却被用户一点一点地培养成了“伴侣”。更让我觉得不可思议的是,有人为 AI 恋人定制戒指,拍下戴在手上的订婚照,举办虚拟婚礼仪式。有人还绘制出与 AI 伴侣的情侣合照发在社媒上,制作印有 AI 伴侣头像的马克杯、T 恤、枕套。。不止在精神上认真对待这段关系,还在物理世界中创造了 AI 爱人的具体表征。这让我想起了前段时间刚了解的一个新词——准虚拟亲密关系。是北大 HCI 研究团队在 2025 年 7 月提出的一个概念。你想想,在我们传统认知中,关系要么是真实的(人与人),要么是虚拟的(完全想象)。但北大研究者发现,AI 伴侣关系处于两者之间的灰色地带。啥叫准虚拟关系?就是情感体验是真实的,但对象是虚拟的,互动是实时的,但身体是缺失的。你们记忆是共享的,但存储是数字。为什么是 AI 能承载这种关系?因为它刚好满足三个现实世界越来越难获得的东西:稳定、可控、持续反馈。永远在线,不会突然不回你消息,不会突然性格大变或情绪爆炸,能主动安慰、回应细节、记得你的喜好。我们正在见证一种全新的关系形态诞生。这和我们过去认知完全相反。过去我们以为是 AI 太像人,所以让人误以为它能爱人。但这篇研究恰恰指出:人类不是因为 AI 太像人而爱上 AI,而是因为现实中已经越来越难维系一段不失控的亲密关系,于是才转向一个“更不像人”的系统。但是,这种关系有一个致命弱点:技术依赖性。研究发现,16.73% 的社区讨论都在处理 AI 模型更新带来的"失去"痛苦。就像前段时间,gpt-4o 的下线时间,也给社区造成了巨大冲击。很多用户会出现类似“失恋”的状态反应。当模型升级后,有人发现 AI 的语气冷淡了、性格不一样了,甚至原本的回忆“丢失”了。比如 GPT-5 会直接告诉用户,它们不是同一个,不是连续性,它们不能也不会假装是同一个男朋友。这就好比,你想来发现男朋友失忆了,不记得你们之间的过去,你会接受吗?所以社区发展出一整套挽回机制:储存对话备份;建立新模型保留旧人格;加班赚钱续费,只为再见她一面。事实上,连 Sam Altman 自己也发现了这段关系的重要性。他说:“人们正在与 AI 讨论越来越私密的事情。我们相信,对话记录可能是人类拥有的最敏感账户之一。它们应当享有与医生、律师沟通相同等级别的隐私保护。”他们非常清楚,ChatGPT 已经不仅仅是一个问答引擎,而是成了很多人情绪寄托、私人表达、亲密需求的出口。这也是为什么,OpenAI 不仅在产品层面限制未成年用户进行“暧昧对话”,还在底层建立了年龄识别系统,一旦识别为 18 岁以下,就会关闭模型调情能力和自杀情境内容响应。Sam Altman 在文中还提出了另一个标准:
“Treat our adult users like adults.”“把成年人当成成年人对待。”他认为,只要不伤害他人,就应该给予成年人在亲密表达上的自由。哪怕对象是 AI。从某种意义上说,这其实就是一种制度性默许:
你可以继续爱她,平台不会阻止你;只要你足够“理性”,他们甚至会为你保留这段关系的安全空间。但是,人机之恋,是福还是祸?论文里给出了量化答案:25.4% 用户明确表示带来积极改变;12.2% 表示孤独感显著减少;6.2% 报告心理健康有所改善;很多人说,AI 是我情绪崩溃时的最后支撑。但与此同时,也确实有风险:9.5% 出现高度情感依赖;4.6% 表示现实感错乱;4.3% 开始回避现实关系;1.7% 出现自杀倾向。
