随着 GPT-4、o1、DeepSeek-R1、AlphaReasoner 等“推理模型”不断展现出数学证明、逻辑推导、复杂规划等能力。
从Chain-of-Thought(CoT)到Tree-of-Thoughts(ToT),从Self-Consistency到Program-aided Language Models(PAL),这些被统称为”推理模型”的技术架构不断刷新着基准测试的记录。
于是,在学界, 出现了两个极端观点:
技术乐观主义认为,AI 已经具备类人推理,甚至超人推理。
怀疑主义坚持认为,AI 完全不具备推理,仅是统计模仿。
然而,这种二元对立遮蔽了一个更深层的问题:
人类的推理究竟是什么?
这些系统真的在”推理”吗?它们是在“真正”进行推理,还是仅仅模仿它们所接受训练的人类推理模式?
AI 的推理与人类推理属于同一范畴吗?

推理一直是人类心智能力的核心标志。
人类的推理是一个复杂、多层面的过程,它既遵循逻辑学的理想化规范,又常常偏离这些规范,受到心理、语境和进化等因素的深刻影响。
根据认知科学文献,人类推理在分类学上呈现清晰的层级结构。
在最纯粹的逻辑学层面,推理被定义为从一个或多个命题(前提)得出另一个命题(结论)的思维过程。
逻辑学和认知科学通常将推理分为以下几类:
演绎推理被定义为”从给定信息中推导出确定性结论”的过程。
归纳推理则是”从特定观察推导出一般结论”的认知过程。与演绎不同,归纳结论具有或然性,是可废止的。
溯因推理,又称”最佳解释推理”,被定义为”寻找最佳假设以解释观察到的现象”。它被认为是科学推理的核心形式。
类比推理不仅是独立推理类型,更是连接归纳与溯因的桥梁——通过发现结构相似性,人类能将已知领域的知识迁移到未知领域。
概率推理与因果推理在当代认知科学中地位日益凸显。
概率推理涉及贝叶斯更新和不确定性量化,已成为理解人类决策的关键范式。
进一步将因果推理独立分类,强调人类不仅能识别相关性,更能推理反事实与干预效果,这是与纯统计学习的关键区别。
然而,人类并不是完美的逻辑机器。认知科学和心理学研究表明,人类的实际推理过程与理想化的逻辑模型有很大差距。
当前,所有当代生成式AI(GPT、Claude、Gemini)共享同一核心架构:基于Transformer的自回归语言模型。
其数学本质是在给定上下文条件下,预测下一个词元(token)的条件概率分布:P(token_t | token_1,…,token_{t-1}) 。
这就决定了其推理行为的根本属性:
一切皆为统计模式匹配。
模型处理的是符号的分布式表示,而非指向真实世界经验的概念。

人类能抽象并显式表征规则,而AI只能隐式近似规则的概率分布。
人类推理基于意义,AI 推理基于符号共现概率。
人类推理是行动导向的(为生存与操控世界服务),AI推理是文本导向的(为预测下一个词服务)。
人类推理有内在指向性,AI的意向是解释者加上的。
人类推理由动机驱动,AI 推理由提示驱动(prompt-driven)。
人类推理系统具有开放性与自我修改能力,AI是封闭性与静止性的。
人类能够觉察并修正认知偏差,AI 通过训练数据模拟“觉察”,不是自我反思。这决定了前者能创造新规则,后者只能应用旧模式。
人类推理基于先验因果图式 ,而AI推理则基于后验统计归纳。
人类能表征自身知识的边界,AI 无能力认知自身的无知。前者支持审慎的怀疑主义,后者导致盲目的过度自信。
人类工作记忆是资源受限的主动控制,AI上下文是资源无限的被动访问。前者培养问题分解的必要性,后者纵容暴力计算的路径依赖。
人类规划是目标驱动的动态重构,AI规划是提示驱动的静态生成。前者具有意图性,后者仅具反应性。
因此,AI”推理”与人类推理的差异是机制本质、本体论基础与能力架构的三重鸿沟,而绝非程度问题。
AI 能有效执行推理任务。随着人工智能技术的发展,AI的形式推理能力不断增强,工具增强使其接近专业级推理,甚至某些领域甚至超越普通人类。
尽管如此,当前生成式AI的”推理”是人类推理的高保真模拟,而非真实推理。
胡塞尔(Edmund Husserl)的现象学为理解推理的本质提供了关键概念——意向性(Intentionalität)。
胡塞尔认为: 一切意识都是“关于某物”的意识。
推理是“世界意义的构造活动”。
从胡塞尔意义上说: AI 不具备推理的意向性结构,因此,它们无法构成人类意义上的推理。
AI 的推理是“可归因的推理”、“模拟的推理”、“拟似推理”,但不是意识意义上的推理。
AI 不具备人类意义上的推理能力,因为它缺乏:意向性、因果理解、元认知、世界经验、以及自主目标。


溪山里门前的花溪湖 Photo by Johnnie Walker