人工智能对教育的真正威胁

Nicholas Carr 是我的偶像。

他是著名作家,技术哲学家、思想家,长期致力于研究科技对人类的影响。

15年前,他的那本入围普利策奖的大作《浅薄:互联网如何影响我们的大脑》(The Shallows: What the Internet Is Doing to Our Brains),是我最喜欢的著作,已被翻译成二十五种以上的语言。

2010年首次出版,一经问世便荣登 《纽约时报》畅销书榜,如今更被誉为“现代经典”,至今仍是探讨互联网对我们思想和认知影响的经典之作。

该书第二版于2020年出版,新增一章内容。Carr 的新书,2025年初出版的《超级绽放:连接技术如何撕裂我们》(Superbloom: How Technologies of Connection Tear Us Apart),试图将社交媒体现象置于更广阔的背景下进行探讨,这一背景涵盖了通信技术的发展史,以及媒介传播如何影响人类心理和人际关系的心理学和社会学证据。

Nicholas Carr 是著名博客,曾经营自己的博客Rough Type(roughtype.com)二十年。两年前转战Substack,开始经营更新名为“新制图”(New Cartographies)自媒体。

他的那本《乌托邦令人毛骨悚然》(Utopia Is Creepy,2016年出版)收录了他过去十二年来的最佳散文、博客文章和其他作品。 

不过,今天,我想跟您分享的,

不是他的新书(因为我也没读过),我想跟您分享他的一篇博客文章。

2025 年 5 月27日,在New Cartographies上,Nicholas Carr 发表了一篇题为《自动学习的神话:人工智能对教育的真正威胁》(The Myth of Automated Learning:AI’s real threat to education)的文章。 

文章中提出一个明确观点: 

真正威胁教育的不是学生“用 AI 作弊写论文”,而是 AI 技术对学习过程本身的破坏 —— 让学习从认知实践变成了自动化产出。 

文章认为,目前关于人工智能与学习的讨论太过关注作弊和检测,而忽视了一个更根本的问题:如果学习活动本身被自动化机器代替,那么,学习就被剥夺了内在价值。 

Carr 将这种现象称为 “自动化学习的神话” (The Myth of Automated Learning)—— 假设通过自动化生成内容就能实现学习。 

这不仅是一个关于学术诚信的问题,更是一场认知的“特洛伊木马”危机。 

或许,我们正在目睹人类有史以来智力上最脆弱的一代人的诞生: 

当工具旨在让我们“变聪明”时,它是否正从本质上瓦解我们学习的能力?

在文章开头,卡尔就指出, 

“首先必须认识到生成式人工智能是一种自动化技术。” 在本质上是用机器来做原本人类会做的事情。 就目前而言,人工智能所做的事情在人类社会中早已存在。 

Carr 从工程学和人因研究中引用了关于“自动化对技能影响”的基本结论:

 当人们将可由自身完成的任务交给机器时,可能出现三种情形: 

1. 技能增强:如果学习者已有较高水平,机器可以承担重复性低级任务,使人腾出精力做更复杂的思考与创造。例如熟练数学家用计算器进行繁复计算,可使其专注于推理。 

2. 技能退化:如果技能需要靠反复实践维持,则过度依赖自动化会让人丧失能力。例如飞行员长期让自动驾驶控制飞机,手动飞行能力可能退化。 

3. 技能从未发展:最令人担忧的情况是:在学习者还未掌握技能之前就把任务自动化。就像工业革命中工匠变成装配线操作工一样,他们失去了学习和掌握核心技能的机会。 

Carr 将这种技能退化/未发展模式与当代教育中的 AI 使用联系起来,认为学生在写作等学习任务上已经进入第三种模式 —— “永不发展”。 

Carr认为,学习是一种“必须由学习者亲自承担的认知劳动”,一个由内部心理过程构成的实践过程,学习从来都不是一种可以外包的生产流程。

正如伟大的教育理论家赫伯特·西蒙(Herbert Simon)曾经指出的那样,“学习源于学生的所作所为和所思所想,而且只能源于学生的所作所为和所思所想。”(“Learning results from what the student does and thinks,and only as a result of what the student does and thinks.”)

在数字时代的教育语境下,我们常犯的一个错误是过度关注“产物”。 

学习不是写出论文、做出产品这种可衡量的产物;论文只是一个指标、一个授课者用来评估学习过程成功与否的“代理物”,但不是学习本身。 

写作文的真正价值不在于最终的“论文”,真正有价值的是那场被学生视为“苦差事”的过程:批判性地阅读原始材料、在海量证据中进行合成、反复推敲论点、并最终通过逻辑严密的文字,用语言清晰表达思想,将思想视觉化。 

这意味着评估学习不能只看结果物,而要看主体是否真正在认知和理解中成长。

Carr 认为,AI 强调的是产出(产品)而非实践(过程),这导致三个严重后果:可以输出但不理解内容;评分/评价不再真实反映学习;逆转学习成果:表面好看、实质无知。 

文章进一步指出 AI 的影响不仅仅是学习过程管理的问题,还从更深层削弱学习者对知识的掌控:AI 让学习者失去思考与表达训练;产生认知依赖而非掌控。

人工智能常常造成的是学习的假象。 

学生或许能借助聊天机器人写出比自己独立完成更好的论文,但最终学到的东西却更少。

人工智能第一次允许学生绕过这一过程直奔结果,让学生“完全不参与认知劳动,却获得高质量学习产物”成为常态化可能,这在本质上是对学习的颠覆。 

在过去这几年,随着大语言模型的快速流行,在人工智能教育应用领域流行一种论调:写好提示词(Prompt)是未来唯一的技能。

然而,这恰恰是一个逻辑悖论。

正如历史教授 Timothy Burke 所指出的,要高效、准确地部署 AI,前提是使用者必须本身具备深厚的背景知识。(The most useful deployment of current and near-future generative AI in research and expression absolutely requires that you already know a great deal)

如果你不了解某个领域的上下文,你根本无法判断 AI 给出的答案是深刻的洞见还是平庸的臆造。

过度依赖 AI 正在“短路”人类获取知识的路径,从而让人失去了有效使用 AI 的基本素养(“is brutally short-circuiting the processes by which people gain enough knowledge and expressive proficiency to be able to use the potential of generative AI correctly.”)

这是一种讽刺的循环:为了走捷径而放弃学习,最终却发现自己因为缺乏知识,连捷径也走不通。

人工智能教育应用的长期风险主要体现在:学习能力的整体退化;对复杂思维的回避文化;教育制度评估指标进一步偏重结果而非过程;学生对 AI 技术本身的理解也受到阻碍。

在文章最后,Carr 提出一个极具洞察力的结论:

我们真正应该担忧的不是 AI 如何让学生作弊,而是 AI 如何“欺骗学生让他们相信他们在学习”。

Carr 认为称人工智能为“教育进步”是一个认知误区。

真实的学习需要挑战、错误、反思,而这些恰恰是自动化无法提供的。

AI 可能成为辅助工具,但决定性不是产出,而是学习者是否经历学习的认知过程。

当然,在自留地君看来,这不是一篇“反 AI”文章,而是一篇“反学习幻觉”的文章。这篇文章的靶心并不是 AI 技术本身,而是“把自动化等同于学习”的认知错误。

这篇文章的思想锋芒,并不在“AI 会不会取代教师”,而在于:当教育制度长期依赖“可交付成果”作为学习代理时,AI 会让这一制度的认知漏洞彻底暴露。他真正击中的,是“教育评价体系”的软肋。

Nicholas Carr 并非否定人工智能教育教育中应用的价值,他只是反对把人工智能简化为“提高效率”或“自动答案生成工具”。 

他主张将人工智能视为辅助理解的工具,提高写作与研究技能的训练伙伴,帮助发现概念盲点的反馈系统。

这篇文章提醒广大教育工作者、教育政策制定者,以及所有的学习者,如果我们把 AI 当成“完成任务的替身”,就会失去教育的核心价值 —— 主动思考、问题解决和终身学习能力的培养。

文章留给我们每一个人重大的思考题就是:

当知识的获取不再需要任何“挣扎”和努力的时候,

当我们在学习过程中只是边浅尝辄止而拒绝深潜的时候,

我们还能称自己为那个拥有智慧、能够独立思考的物种吗?

2019年1月25日