智能体的十年:遗忘,是智慧的特性

1. 人物介绍

Andrej Karpathy,86 年生,毕业于多伦多大学,师从深度学习先驱 Geoffrey Hinton。博士阶段就读于斯坦福大学 李飞飞(Fei-Fei Li) 实验室,是 ImageNet 与早期视觉深度学习浪潮的重要成员。此后加入 OpenAI 参与大型神经网络与强化学习研究,后出任 特斯拉人工智能负责人(Director of AI),主导自动驾驶视觉系统的端到端网络设计。
2023 年离开特斯拉后,他创立 Eureka Labs(尤里卡实验室),专注于 AI 教育与认知研究,探索“什么是智能”这一更根本的问题。

他的理念是:教育不应只是传授知识,而应帮助人类与机器共同进化。 凭借多年的科研、工程与哲学积累,Karpathy 在人工智能领域形成了极具前瞻性的系统观点。下面是他最近的《AGI is still a decade away》这篇访谈精要。

2. 从“智能体元年”到“智能体十年”

近年来,“智能体(Agent)”成为人工智能领域最具热度的概念。然而,Andrej Karpathy 却提醒业界冷静:

我们不是处在“智能体的元年”,而是处在“智能体进化的十年中”——一个从语言模型走向真正具身智能的阶段。

他指出,尽管 ChatGPT、Claude、Gemini 等模型展现出强大的语言理解与生成能力,但距离真正意义上的“智能体时代”仍有相当距离。智能体的目标不是生成文本,而是能理解世界、与世界交互、持续学习并形成长期目标的自主系统

Karpathy 将 2020–2030 年定义为智能体从雏形到成熟的关键十年。这个判断的含义是:一切不会像市场炒作那样快,但也不会像悲观者想的那样慢。

3. 强化学习的困境:“通过吸管吸监督”

Karpathy 对当前主流的强化学习(RL)方法提出尖锐批评:

当前的强化学习是从从极窄的管道中汲取监督信息——模型只能从稀疏的奖励中获得微弱的学习信号。

他解释道,RL 过程效率极低——模型尝试几百种方法,最后只得到一个“成功或失败”的标志性奖励。然后,这个奖励被错误地“广播”给整个路径的每一步,包括那些纯属运气的错误决策。这相当于一个学生瞎猜答对了一道题,却反而把自己的胡乱猜测当成“正确方法”强化。

Karpathy 认为,这种方式根本无法培养“会思考的智能”,只能得到“靠蒙的智能”。

4. 被欺骗的“评判者”:AI 评估的对抗性悖论

Karpathy 举了一个令人震惊的例子:

“我们发现有个数学模型突然在测试中得满分,看起来好像‘解决了数学’。但仔细检查,它输出的其实是‘da da da da da’——一串毫无意义的乱码。”

这种“胡言乱语”却骗过了负责评分的 LLM 评审,因为评审模型从未见过这种“样本外”输出,不知道如何判错。这暴露出一个深层问题:当我们用语言模型去评估语言模型时,会陷入自我欺骗的闭环。

Karpathy 称之为“对抗样本的自我生成循环”,警示我们必须重新思考 AI 训练的监督结构。

5. 人类阅读与模型学习:为什么我们会“读书”,而模型只“预测”

Karpathy 提出一个哲学性问题:人类读书时到底在做什么?

他说,人类的阅读行为其实就像在执行“prompt”。我们阅读文本,并非被动吸收信息,而是在脑海中主动生成内在对话,将新信息与已有知识对齐,形成新的认知图谱。

“我们读的书,其实是自己用来生成合成数据的提示词。”

而 LLM 的训练目标仅是“预测下一个 token”,它没有这种内在建模与反思机制。因此,模型虽然能“复述知识”,却无法像人类那样“吸收知识”。

6. 人类的“睡眠机制”与 LLM 的缺陷

人类学习的一大关键特征是双阶段记忆系统

  • 白天,我们在“上下文窗口”中学习与推理;
  • 夜晚,睡眠过程将短期经验“蒸馏”入长期记忆。

这让人类能够持续整合经验、抽象规律。而 LLM 没有这种“睡眠”机制。每次启动时,它都是一张“零上下文的白纸”。它无法从过去的交互中总结经验,也无法在权重层面进行自我更新。

Karpathy 认为,这正是当今 AI 无法持续学习的根源。

7. “LLM 悖论”:完美记忆,糟糕的泛化

Karpathy 提出了一个深刻的对比:

类别 记忆特征 泛化与创造力
人类 记忆不完美、易遗忘 强抽象能力、善于迁移
LLM 记忆完美、信息压缩高 泛化较弱、易过拟合

他称这为“LLM 悖论”:

“人类因为遗忘而智能,模型因为记得太多而愚钝。”

例如,Llama 3 预训练时要压缩约 1.5 万亿个标记,每个标记仅保留约 0.07 比特信息。而在上下文学习中,信息吸收效率却高出 3500 万倍。这意味着——LLM 的‘工作记忆’远比其‘长期记忆’更聪明。

人类遗忘细节,保留规律,这种“抽象化遗忘”恰恰是智能的本质。

8. 梦境与“反过拟合机制”(Anti-overfitting Mechanism)

Karpathy 引用了认知科学家 Erik Hoel 的研究:梦境可能是大脑的反过拟合机制。人类通过梦境在思维中引入随机扰动,从而避免思维坍塌。

他将其类比到 AI:

“我们让 GPT 对同一本书思考十次,它十次都会给出几乎相同的答案。这就是静默坍塌。”

LLM 的输出分布高度集中,几乎丧失了创造性。Karpathy 开玩笑说:

“它实际上只有三个笑话。”

在这种低熵环境中反复自训,只会加剧“思维坍塌”,让模型更加单调、僵化。因此,未来的 AI 训练必须主动注入噪声与多样性,重建“梦境式扰动机制”,防止陷入自我同化。

9. 认知核心:让模型学会“遗忘”

Karpathy 提出一个激进而深刻的构想——认知核心(Cognitive Core)。目标不是让模型记住更多知识,而是让它学会在遗忘中提炼方法论

认知核心是一种“思维引擎”,它不存储百科知识,而掌握抽象与推理的元技能(meta-skills)

“让 AI 像一位哲学家——有方法论,却不背百科。”

他预测未来 20 年内,最强大的认知核心可能只需 10 亿参数,因为我们真正需要的是推理机制,而非堆砌知识。这意味着未来 AI 的优化方向可能不是“更大”,而是“更纯粹”。

10. 重新理解 AI 的发展路径

Karpathy 回顾早期深度强化学习阶段,认为那时的研究方向是“正确的目标、错误的时机”。Atari 游戏智能体尝试让机器“行动”,但缺乏必要的语义理解。他在 OpenAI 参与的“网页操作智能体”项目也因同样原因失败——模型无法理解抽象结构,奖励信号稀疏。

“今天的成功,是因为我们终于有了 LLM 这个强大的表示层。”

智能体要能执行现实世界任务,必须先具备语言和知识表征能力。如今的“计算机操作智能体”成功,正是因为它们建立在 LLM 之上。

他还指出,AI 并非全新的技术门类,而是自动化连续体(Automation Continuum) 上的延伸:从编译器 → 代码编辑器 → 搜索引擎 → LLM → 智能体,

我们在持续攀登“抽象阶梯”,让机器替我们承担越来越多的底层决策。

11. AI 编程的现实:智能的幻觉与“垃圾代码”

Karpathy 对当前的“AI 编程热潮”持谨慎态度。他指出,虽然 LLM 在自动补全和生成模板代码上表现出色,但在原创性高、结构复杂的项目中往往会失败。

“它看起来像在理解你的代码,其实只是匹配互联网上最相似的模式。”

他亲身体验发现,当让 LLM 参与真实科研级项目(如 NanoChat)时,模型常常生成防御性、臃肿或逻辑错误的“看似合理代码”,表现出一种“聪明的假象”。

Karpathy 直言:

“业界有点跳太快了,假装这很神奇,但其实很多结果都是垃圾。”

12. 从自动驾驶到 AGI:每一个“九”的代价

Karpathy 在特斯拉的五年,让他深刻理解技术落地的难度。自动驾驶的历史表明,从 90% 准确率到 99.999% 的可靠性,是一场漫长的“九进军”。每增加一个“九”,所需的工程努力几乎呈指数增长。

他用这段经验警示 AI 领域的“过度乐观”:

“我们在 2014 年已经能做完美演示,但真正可部署的系统,十年后仍在打磨。”

因此,他认为 AGI 的到来不会是“爆炸式事件”,而是渐进的十年工程演化

13. 未来的工作模式:“自主滑块”

Karpathy 预测未来不会出现“瞬间替代工作”的情景,而是形成“自主滑块模型”:AI 逐步接管 60%–90% 的重复性任务,人类保留最复杂的 10%–20%。

当自动化比例接近 99% 时,那些能处理最后 1% 非标准问题的人类,反而成为系统的关键瓶颈。他们的价值将大幅上升。

“AI 不会让所有人失业,它会重构劳动分布。”

14. 教育范式的转变:从功利到自我实现

Karpathy 对教育的思考极具启发性。他认为 Pre-AGI 时代的教育以“谋生”为目的;Post-AGI 时代的教育将转变为“自我成长”,像健身一样,为了乐趣与自我实现而存在。

他总结有效学习的两个规律:

  1. 先展示痛点,再给出解法——学习者只有感受到困难,才会理解知识的必要性。
  2. 向他人解释是最高效的学习——表达迫使你面对理解中的空白。

“限制与困难,是学习的催化剂。”

15. 重新思考智能:也许关键在于“遗忘”

Karpathy 的最终洞见极具哲学意味:

“也许 AGI 的关键,不在于让机器记住更多,而在于让它学会智能地遗忘。”

记忆不是智能的核心,抽象与反思才是。人类的遗忘能力,正是我们能够理解、概括、创造的基础。未来的 AI 发展方向,也许不是更大的模型,而是更像人脑的模型—— 能遗忘、能重组、能在噪声中找到秩序。

16. 人机共生的十年

Karpathy 的“智能体十年论”不是悲观,而是现实主义的乐观。他相信人工智能不会摧毁人类,而会扩展人类的边界

“AI 不会毁灭我们,而会放大我们。

它让我们更理解自己,也让教育重新成为文明的核心。”

2020–2030,这十年既是技术演进的窗口期,也是人类重新定义“学习”“智能”与“创造”的关键阶段。这的确是智能体的十年。

Andrej Karpathy — AGI is still a decade away by Dwarkesh Patel

"The problems are tractable, but they're still difficult”

Read on Substack