36kr-科技 9小时前
AI时代,“降智”与“懒思”的担忧加剧
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

随着ChatGPT等生成式AI的普及,人们对其过度依赖和认知卸载的担忧日益加剧。AI在提高效率的同时,可能削弱人类的批判性思维、独立思考和创造力。文章探讨了AI对智力、技能和认知结构可能产生的深远影响,并强调在AI时代保持人类独特性和批判性思维的重要性,呼吁将AI作为认知伙伴而非替代品。

🧠 **过度依赖与认知卸载的风险**:AI工具如ChatGPT已成为日常生产力助手,但过度信任其输出可能导致“执行性错误”。用户可能因不了解AI的功能、局限性或工作机制而盲目采纳建议。这种“认知卸载”会将认知负担转移给AI,可能导致独立思考能力和批判性思维的下降,甚至使人类变得“更加人工化”。

📉 **批判性思维面临挑战**:AI生成的内容形式上可信,但事实可能不可靠。例如,AI搜索结果的出现率导致用户不再深入点击链接,影响信息平台流量。社交媒体算法的碎片化信息和AI的“伪智能”外观,都可能削弱人们对信息的质疑和批判能力,使虚假信息传播更隐蔽。

🤔 **“降智”与“懒思”的担忧及其独特性**:与以往技术不同,AI直接替代了人类的核心认知功能,且普及速度和规模前所未有。这种“智能”模拟的真实性与迷惑性,以及AI对社会结构和价值体系的潜在重塑,使得对AI的担忧不能简单地用“技术悲观论总会落空”来化解,而需严肃审视和管理。

📈 **全球智商趋势与AI影响**:虽然历史上存在“弗林效应”(智商提升),但近期一些发达国家出现“逆弗林效应”(智商下降)。AI的广泛应用,特别是“认知卸载”,可能导致特定认知技能(如记忆力、空间导航能力)退化,学生和职场人士在依赖AI后,解决问题能力和决策能力也可能减弱。

每一次技术革命都伴随着“降智”与“懒思”的担忧。这一次,我们的脑力是得以解放,还是会因将思考外包给无面孔的算法而逐渐退化?

01 过度依赖与认知卸载

ChatGPT在上线三年后,周活跃用户数破8亿,业已成为许多人工作不可或缺的生产力工具,融入日常生活的速度也在进一步加快。山姆·阿尔特曼在发布这一最新数据时说:“感谢大家,AI已从人们把玩的东西,转变为每天用来构建东西的工具。”

然而大模型的火爆也衍生了一个非预期后果——出现对人工智能的过度依赖。所谓“过度依赖”,是指人们对人工智能系统的输出过分信任或依赖,哪怕这些结果是错误的或不可靠的,也会照单全收。

换言之,用户在没有经过充分判断或验证的情况下,盲目采纳AI的建议,从而导致错误——业界称之为“执行性错误”。这种情况通常发生在用户并不完全了解以下内容时:AI能做什么(它的功能与适用范围);AI能做得多好(它的准确性与局限性);以及AI是如何工作的(它的逻辑、数据来源或决策机制)。

过度依赖可能导致现实问题和错误丛生,最终令人们丧失对AI系统的信任。不过担忧还不止于此。虽然AI能够提升某些认知能力,但人们害怕,过度依赖 AI,或许会使自己变得懒于思考;遇到问题就求助于AI,可能会对长期认知发展和批判性思维能力造成影响。这一现象有时被称为“认知卸载”(cognitive offloading),指当AI接管更多任务时,人类独立完成这些任务的能力可能会下降。

认知卸载是我们在日常工作和生活中经常采取的一种策略,个体通过利用外部资源来减少完成任务的认知需求。其形式可以很简单(如写购物清单、记笔记),也可以很复杂(如依赖高科技设备处理信息、使用GPS导航)。在今天,把认知负担转移给人工智能已经成为我们的“第二天性”。

例如,在医疗影像诊断中,AI能通过深度学习识别X光片或CT影像中的病变。如果一名放射科医生在看到AI系统标注出“疑似肺癌”区域后,并未仔细复核图像,也没有结合患者的病史,而是直接依据AI结论就下诊断。那么,这位医生就不仅是认知卸载,而且形成了对AI的过度依赖。

这方面的例子我们可以举出很多:企业的HR人员依靠AI系统筛选应聘者;某些智能电动汽车用户过度信任“自动驾驶模式”;学生要求AI生成整篇论文,未加审查便直接提交;客服人员不再阅读用户情绪或问题语气,只是机械采纳AI推荐答案,等等。

随着AI使用频率和依赖程度的增加,人类大脑的思考能力也随之受到限制,导致人类的思维水平迅速下降。人类的智力能力被部分转移到人工系统上,使得人类变得“更加人工化”。此外,与技术的高度互动使我们开始用类似算法的方式思考,却缺乏对过程的真正理解。

另一个问题是人类在生活的几乎所有方面对AI技术的依赖。尽管这提高了生活水平并使生活更加便利,但也对人类活动产生了负面影响,使人变得急躁和懒惰。随着AI深度介入诸如规划与组织等活动,它会逐渐“饿死”人类大脑的思考深度和心理努力。高度依赖AI可能导致技能退化,并在需要身体或脑力操作时产生压力。

在讨论人工智能对我们大脑的影响时,大多数研究都集中在生成式人工智能(GenAI)上,这是一种让我们比以往任何时候都更多地将认知负担转移出去的工具。任何拥有手机或电脑的人,都可以瞬间获取几乎任何答案、撰写论文或编写代码、创作艺术或设计作品。然而,过度依赖AI完成创作等任务,可能抑制独立思考,并导致语言和表达方式的多样性下降。

AI对创造力的深层影响同样令人担忧。研究表明,AI确实能帮助个人产生比他们单独思考时更多的创意,但在整个群体层面上,AI生成的创意却较为单一,意味着真正的“灵光一现”的创新时刻变得更少。

康奈尔大学的心理学家罗伯特·斯特恩伯格(Robert Sternberg)在《智力学刊》最近的一篇文章中总结了这些担忧:“生成式AI具有复制性。它可以重新组合和重新排序已有的想法,但尚不清楚它是否能产生那种颠覆性范式的创新想法,而这正是世界需要用来解决诸如全球气候变化、污染、暴力、收入差距扩大和渐进式专制等严重问题的关键。”

02 批判性思维面临危险

关于生成式人工智能如何通过提高收入、工作满意度和科学进步等多种方式改善我们生活的潜力,已经有成千上万的文章进行了探讨。然而,令人担忧的是,自动化任务使我们失去了自己练习技能的机会,导致支撑这些技能的神经结构被削弱。正如忽视身体锻炼会导致肌肉萎缩一样,认知努力的外包也会使神经通路退化。

其中最重要的认知技能之一——批判性思维,正面临高风险。当问你喜欢莎士比亚的哪些特点,而你很容易就可以通过搜索大模型予以回答时,为什么要自己绞尽脑汁去思考呢?研究支持了这样的担忧。瑞士克洛滕SBS商学院的迈克尔·格利希(Michael Gerlich)对666位英国人进行了测试,发现频繁使用人工智能与较低的批判性思维能力之间存在显著相关性——尤其是年轻参与者对AI工具依赖性较高,他们的批判性思维得分就明显低于年长者。

类似地,微软和卡内基梅隆大学的研究人员对319名每周至少使用一次生成式人工智能的专业人士进行了调查。虽然AI提高了他们的工作效率,但同时也侵蚀了批判性判断所需的“认知肌肉”,促使他们对这项技术产生长期依赖。研究人员预测,这可能导致他们在没有AI支持的情况下解决问题的能力下降。

格利希研究中的一位参与者表示:“能够随时获取所有信息当然很好,但我有时担心自己其实并没有真正学习或记住什么。我对AI的依赖太大,以至于觉得如果没有它,我根本不知道该如何解决某些问题。”长期依赖AI,可能使人们在没有AI协助的情况下难以独立完成任务,也更难适应没有AI的环境。

这种批判性思维的侵蚀还被AI驱动的社交媒体算法所加剧。格利希说:“社交媒体对批判性思维的影响巨大。为了让你的视频被观看,你只有四秒钟的时间去吸引别人的注意力。”结果是,大量易于消化但不鼓励深入思考的碎片化信息蜂拥而来。大量的社交媒体给人的信息,是无需进一步加工处理的。

由于人们更多被动接受信息,而不是通过认知努力主动获取知识,因此对所学内容的意义、影响、准确性和伦理的批判性分析能力极容易被忽视,当他们面对那些看似快速且完美的答案时,就更是如此。

根据2024年TollBit State of the Bots报告,当AI被用来搜寻答案,95%的人会放弃进一步点击。也就是说,人们如果改用AI查询资料,相较于他们以前使用传统搜索引擎查询,为某些网站带来的流量前后减少了95%!不论是Perplexity或ChatGPT,当答案在聊天框里用AI整理出来以后,就算带有链接,人们会继续往下点击来源网站的比例只剩下5%。

所以,受此影响,健康信息平台WebMD、知识问答平台Quora、开发者社群平台Stack Overflow与科技新闻与评论网站CNET等,流量纷纷下降。流量持平或成长的平台,只有Reddit这样的在线论坛、线上百科全书Wikipedia以及个人电子报平台Substack等。

受到冲击的平台被迫纷纷调整策略。比如,WebMD从单纯的信息提供者,变身为服务精准客户的健康教育平台。它企图通过用新方向锁定利基市场,让流量不再像以往那么重要。

而Substack的例子,更能反证AI时代批判性分析能力的重要性。这家成立于2017年的平台,让独立写作者毋需架设网站,仅花5分钟就能发行自己的电子报,且可设定付费订阅功能,让内容有价。它很快吸引了一群美国权威媒体人与知识网红进驻。据《福布斯》报道,截至2021年8月,Substack拥有超过25万付费用户,其中前10名创作者的年收入合计高达700万美元。

那么,在ChatGPT问世、AI生成免费内容泛滥后,Substack是否受到冲击?数据显示,2025年2月,Substack的流量达到创立以来的新高,仅次于2023年1月的高峰。

这说明,生成式AI兴起后,反而使人们更想要阅读高品质、甚至需付费的电子报。Substack的创作者提供个人观点与深度分析,这正是AI难以取代的价值。

03 “降智”与“懒思”的担忧

对AI保持批判性是很难的——你必须具备自律性。不把批判性思维完全转嫁给这些机器,是一项非常具有挑战性的任务。

作为大学老师,我常常能在学生身上看到轻易转嫁的行为。虽然这并不是我通过实证测试得出的结论,但我相信学生们太容易通过让互联网告诉他们该做什么、让大模型告诉他们该信什么,来替代独立思考。

缺乏批判性思维,就很难明智地消费AI生成的内容。尽管这些内容看起来很有说服力,尤其是在你越来越依赖它们的情况下,但不要被表象所迷惑。与人类相比,机器人聊天不仅产生更容易理解的信息,同时也生成了更具欺骗性的虚假信息。

AI语言模型擅长生成语法流畅、逻辑连贯、语气自信的文本,这种“形式上的可信度”往往掩盖了其“事实上的不可靠性”。AI的“可信外观”与用户的“自动信任”相互强化,使得虚假信息的传播更加隐蔽和高效。长期依赖AI输出可能导致判断力钝化、怀疑机制退化,由此来看,批判性思维的缺失,不仅仅是个能力问题,而是正在成为一种新的信息风险。

除了考虑使用人工智能时发生的事情,还可以思考使用后的影响。就像其他令人愉悦的事物一样,我们的大脑会因为突然的灵感闪现而产生兴奋感,这种感觉来自于神经奖励系统的活动。这些心理奖励帮助我们记住改变世界的想法,同时也会改变我们的即时行为,使我们变得不那么害怕冒险——这被认为能促进进一步的学习、创造力和机会。但由人工智能产生的灵感似乎不会在大脑中引发如此强烈的反应。认知神经科学家相信,奖励系统是大脑发育中极其重要的一部分,而我们到目前为止,还不知道使用AI技术在未来会产生什么样的影响。至今还没有人对此进行过测试。

当然,作为媒介史研究者,我也十分清楚,历史上,从文字到互联网,每一次技术革命都伴随着“降智”与“懒思”的担忧。这一次,我们能简单地沿用“技术悲观论总会落空”的想法来化解当下的焦虑吗?

并不能。这是因为,人工智能与以往的技术相比,存在几个根本性的不同:首先,它是认知功能的直接替代。过去的技术大多是扩展或辅助人类能力,比如文字帮助记忆,计算器辅助计算,而AI特别是生成式AI,正在直接替代甚至执行传统上属于人类“思考”、“判断”、“创造”的核心认知功能。这种替代是质的飞跃,而非简单的工具辅助。

其次是技术的规模与普及速度前所未有。AI的应用渗透极快,覆盖面广,许多日常生活和工作中的复杂决策都能被AI参与甚至主导,这使得“依赖性”风险比以往任何技术都更大。

再次,“智能”模拟的真实性与迷惑性也很致命。如前所述,用户在面对AI生成文本时,往往被其语义连贯、逻辑严谨与表达自然的表象所吸引,从而逐渐形成认知依赖。这种“伪智能”可能降低人类对信息的质疑和批判意识,带来新的认知风险。

最后是社会结构与价值体系的潜在重塑。AI不仅影响个体认知,更可能改变教育、工作、权力结构和伦理观念,带来深层次的社会变革。

因此,简单用“技术悲观论总是多余”来否定对AI的担忧,可能过于草率。虽然历史教导我们,技术带来的恐慌大多会被现实修正,但AI的独特性质也提醒我们:这种新技术的影响必须被严肃、全面地审视和管理。

换句话说,我们不能简单地忽视焦虑,而应积极正视AI带来的挑战,制定合理的监管政策,培养公众的批判性思维和数字素养,确保AI成为人类智能的助力,而非替代或削弱。这样才能真正把握AI带来的机遇,避免重蹈以往技术革命中“盲目乐观”或“盲目恐慌”的老路。

04 全球智商的下降

如此看来,我们必须认真地回答一个问题:AI时代,我们正在变得更聪明,还是被数字生活的重负慢慢钝化?

智商(IQ)是衡量智力的一种量化指标。针对智商测量有一个概念,叫“弗林效应”(Flynn effect),是以智力研究者詹姆斯·R.弗林(James R. Flynn)来命名的。他在20世纪80年代经过研究发现,自上世纪30年代以来,全球多个高生活水平国家连续几代人的平均智商在持续提升。换句话说,人类变得越来越聪明了。

这一上升趋势足够显著,以至于使早期的智商测试标准随着时间变得过时。智商每10年大约上升2到3分,这一模式在不同年龄组、测试类型和表现水平中均保持一致。每10年增加2到3分对个体而言变化不大,但在整个人口中累积起来则具有显著意义。

是什么原因导致了20世纪的智商上升呢?通过对超过73万名挪威男性的分析,挪威研究人员伯恩特·布拉茨贝格(Bernt Bratsberg)和奥勒·罗格伯格(Ole Rogeberg)在2018年进行的一项研究得出结论,智商的上升与下降均源于家庭内的环境因素。这一发现排除了遗传和人口学解释,凸显了社会条件变化的作用。教育水平、营养和公共健康的改善很可能推动了这一时期的智商增长。

然而,发达国家从1990年代开始,出现弗林效应的轻微逆转(即智商分数下降),这有时被称为“逆弗林效应”。在英国,弗林本人曾表示,1980年至2008年间,14岁青少年的平均智商下降了超过两分。与此同时,全球性的国际学生能力评估项目(PISA)也显示,许多地区的数学、阅读和科学成绩出现了前所未有的下降,年轻人的注意力持续时间缩短,批判性思维能力也变得较弱。

同上升的因素一样,近期的下降原因也是社会性的,可能源于教育质量停滞、被动媒体消费增加以及认知参与度下降。换句话说,那些曾经提升人口智力的因素,如今可能正在促成其下降。

增加近期智商趋势复杂性的是,新研究表明智力结构本身可能正在发生变化。维也纳大学2024年的一项队列研究追踪了2005至2024年德语人口的智商测试结果,发现虽然在某些情况下智商仍有所上升——尤其是在最初得分较低的个体中——但不同认知能力之间的整体一致性却在减弱。实际上,人口可能正在变得更加认知分化或专业化。

尽管这些趋势在数据上是经得起统计检验且具有实证基础的,但对其解读却远没有那么简单。芝加哥西北大学范伯格医学院的伊丽莎白·德沃拉克(Elizabeth Dworak)最近在对2006年至2018年间美国大样本人群的研究中,发现了弗林效应可能出现逆转的迹象。她指出,大家都想把人工智能当作“替罪羊”,但这应当加以避免。智力能受到多种变量的影响——例如微量营养素碘已知会影响大脑发育和智力,此外产前护理的改善、受教育年限、污染、疫情以及技术发展等因素也都会影响智商,因此很难孤立地确定某一个因素的影响。德沃拉克认为:“我们的行为不是孤立发生的,我们不能只指着某一个因素说‘就是它’。”

不过,虽然人工智能对整体智力的影响难以量化(至少在短期内如此),但关于“认知卸载”导致特定认知技能下降的担忧是合理且可测量的。研究表明,使用人工智能来处理与记忆相关的任务,可能会导致个人自身记忆能力的减退。譬如,我们常见的情形是,过度依赖GPS等AI工具,会削弱空间记忆与导航技能,印证了“用进废退”的原理。

在教育领域,研究显示依赖生成式人工智能的学生在测试中的表现更差,这表明其解决问题能力和概念理解能力正在减弱。在职场上,也出现了很大的担忧:对人工智能工具的持续依赖可能侵蚀员工的思维敏捷性和决策能力。随着算法接管原本需要人类判断的任务——从诊断患者到管理投资组合——我们不仅面临技能的流失,还可能丧失对自身推理能力的信心。

05 保持不可替代,不成为“多余的人”

当平均智商得分开始下滑,当“脑腐”(brain rot)这样的词语出现在公众话语中,研究者、教育者与技术专家们正竭力理解:环境与技术的剧变,究竟如何重塑我们的思维方式。

那我们的脑力会走向何方呢?是得以解放,去从事更有深度的思考,还是会因将思考外包给无面孔的算法而逐渐退化?

正如斯滕伯格所警告的,我们需要停止一味地问“人工智能能为我们做什么”,而应开始思考“人工智能正在对我们做什么”。他指出:“在生成式人工智能盛行的当下,最大的担忧并非它可能损害人类的创造力或智力,而是它实际上已经这样做了。”

扭转这一局面的关键并非拒绝人工智能,而是将其作为认知伙伴使用——一个能够解释、增强并引导更深入思考的伙伴,而非替代我们的思维。最终,答案在于重新培养人类成为更有人性的人,通过养成批判性思维、直觉等目前计算机还无法实现的能力,使我们在人工智能时代不会成为“多余的人”。

本文来自微信公众号“腾讯科技”,作者:胡泳,36氪经授权发布。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

人工智能 AI 生成式AI ChatGPT 认知卸载 批判性思维 智商 未来 技术伦理 Artificial Intelligence Generative AI Cognitive Offloading Critical Thinking IQ Future Tech Ethics
相关文章