随想


谁在思考
AI 出现之后,人和它之间,大致分了两种协作方式。

第一种是人先有自己的判断。 对问题有基本理解,对方向有初步选择,也清楚自己在意什么、不接受什么。AI 在这个过程中只是辅助:补充信息、展开推演、完善结构。它不替人决定,而是把原本模糊的想法变得更清晰。 在这种协作里,AI 放大的不是答案,而是差异。 一个人的经验、审美、判断力和关注点,都会被进一步展开。最终被增强的,仍然是人自身。

第二种是把问题连同思考一起交出去。 不再主动形成理解,也不再建立判断,而是直接等待一个“够用”的结果。于是,比较、辨别和推敲这些过程被不断省略。久而久之,人看上去仍在工作,却越来越少参与其中。 最后留下的,可能只是提需求、收结果、再转发。被替代的不是某个动作,而是人逐步形成判断的过程。

所以,分界不在于是否使用 AI,而在于是否还保有思考的主动权。 是先有立场,再借助 AI 推进;还是干脆连问题也交出去,让 AI 决定路径与边界。计算、记忆、检索、推演,可以交给模型,但方向、取舍与意义,仍然只能由人给出。

从这个角度看,AI 更像一种放大机制:你保留什么,它就放大什么,你交出去什么,它就替代什么。 最终决定协作质量的,不是工具本身,而是人是否还在其中。


贝叶斯更新与结构压缩
人的知识,并不是一次获得的,而是在 不断修正中慢慢形成的。每个人最初对世界的理解,都只是一个不完整的 “先验”,来自成长环境、读过的书和经历过的事情。新的经验不断进入——一次阅读、一段对话、一场失败、一次顿悟——这些信息会不断冲击原有认知,使我们 重新调整判断。旧的理解被修正,新的理解形成,又成为下一轮思考的起点。人的认知正是在这样的循环中前进:不是 一步抵达真理,而是 一轮一轮逼近它。某种意义上,人获得知识的方式,就是一种持续发生的 贝叶斯更新——通过不断承认 自己可能是错的,一点点修正自己对世界的理解。

AI 的知识形成路径则不同。模型并不会经历人的生活,它在训练时所做的事情其实很简单:不断预测“下一个字”。但在 海量书籍、论文和文本 的反复训练中,这个过程会逐渐捕捉语言背后的模式。当同一种思想在无数文本中反复出现时,它们会在 参数空间中沉淀为稳定的结构:有的是 论证方式,有的是 概念关系,有的是 推理路径。随着训练不断进行,这些结构被 压缩进模型参数之中,最终形成可以被调用的能力。从这个角度看,AI 学到的并不是某个人的知识,而更像是人类文明中反复出现的 结构、原理与思想形状的沉淀

因此,人和 AI 通往知识的道路并不相同。人是在 有限经验中不断修正自己,AI 是在 海量语料中不断压缩结构。人的认知像是一条 在黑暗中缓慢延伸的路径,每走一步都会改变下一步的方向;AI 的认知则更像是一片 高维空间,汇集了无数人曾经走过的路径,并把它们整理成可以被 迅速调用的形状

两种不同的知识方式 在同一个时代相遇,一个新的问题便自然出现:当一个系统能够比我们更快地调动文明中已经存在的结构时,人类真正独特的能力,究竟还在哪里?


三个世界:原子、比特与向量
很多人都在说,世界正在被 AI 迅速改变。但如果稍微退后一步看,会发现世界其实并不是突然变了,而是我们正 同时处在三个不同的世界里

原子世界 中,稀缺来自 位置。空间是有限的,一个位置只能被一个事物占据,于是 资源、土地与城市 构成了财富的基础。互联网诞生之后,比特世界 让空间几乎消失,信息可以在瞬间抵达任何地方,真正稀缺的开始变成人的 注意力

如今,AI 正在创造 第三个世界——一个由向量构成的认知世界。在这里,时间被大幅压缩,人类几千年积累的知识被训练进模型之中。许多过去需要 长时间阅读、学习和实践 才能理解的内容,现在只需要 通过对话就能触及。那些曾经只有少数专家才能攀登的 知识高峰,正在被折叠成一个 随时可以进入的入口;分散在 书籍、论文和经验中的智慧,也被重新整理成一种 可以即时调用的能力。人与知识之间的关系因此发生了改变——我们不再只是 一步步攀爬知识阶梯的学习者,而开始成为 可以随时向整个人类知识体系提问的探索者

如果说 工业革命 让世界变得更 丰富互联网 让世界变得更 扁平,那么 AI 正在让世界变得更 。技术的每一次跃迁,本质上都是在 移除一个曾经不可逾越的约束:先是 物质的匮乏,其次是 空间的距离,如今轮到了 时间本身。当 空间不再是边界、时间不再是成本 时,人类真正要面对的问题或许不再是 “如何获取信息”,而是——在一个 几乎没有限制的世界里,我们究竟 想成为怎样的人


差异之外
我们常常以为,越能分辨细微差别,就越接近真相。确实,察觉差异是一种能力。有人能听出音响里极其细小的变化,有人能分清不同导演、不同译本之间的风格。这种敏感来自经验、专注和训练,本身无可厚非。

但问题在于:当差异被识别出来之后呢? 很多差别只是存在,并不天然指向对事物更深的理解。它们像光线下浮起的尘埃,你看见了,却未必因此更明白空气的意义。差异能让我们觉得自己更敏锐,却不一定让我们更贴近事物本身。

当注意力开始围绕“谁更好”“哪个更高级”打转时,事情可能发生了转向。我们不再只是体验,而是进入比较;不再只是观看,而是开始排序。细致的拆解、精准的判断,看似是在加深理解,其实有时更像是在确认自我位置。

因为一旦分出高低,就有了站位;有了站位,就有了优越感的可能。差异于是成了一种工具——用来证明我懂、我会分、我站得更高。而体验本身,却在这时候被稀释了。

想象一下,当你走进电影院,如果满脑子都是“这部片值不值这个分数”“是否达到某种标准”,真的很难沉进去。可如果只是把时间交出去,让自己被带着走,悲伤就悲伤,震撼就震撼,那两个小时反而更完整。

差异不是无用,只是它未必是核心。它像边框,勾勒出轮廓,却不等于画面的全部。过度凝视边框,反而会忽略画面本身。

也许可以这样理解:当我们执着于差异,往往是在寻找自我确认;当我们回到整体,才可能真正享受世界

前者让人清醒、锋利,却容易紧绷;后者未必精致,却更宽阔。真正的丰富,不一定来自于把一切分得更细,而可能来自于,在看见差异之后,依然愿意放下它。


变量之上
在 AI 时代,模型在持续演进,技术更替已成为常态。若把注意力集中在每一次迭代上,我们很容易被节奏牵着走。

真正值得投入的,不是对变化的追赶,而是对不变的把握。与其把时间分散在趋势上,不如把精力投入到可复用的能力上。

例如,构建复杂系统的架构思维——把握全局、拆解复杂、搭建结构;又如,在生成式洪流中保持审美与判断——在大量可能性中做出清晰而有边界的选择。

工具会不断被替换,但人的思维方式与判断力具有延续性,它们会决定我们在变化中的位置。


复杂度的迁移
当一项技术变得容易实现,人们常以为世界会因此变简单,但现实往往相反。技术降低的是门槛,抬高的却是上限。当能力从稀缺变为普遍,它就不再是优势,而是变成了新的基础设施。于是目标会被重新定义:不只是“做出来”,而是“做的更好、更极致”。

原本复杂的实现被封装成接口,高深的能力被压缩成一次调用,但围绕这些能力构建的系统却愈发庞大而精细。复杂度没有消失,只是迁移了——从写代码转向定义问题,从实现功能转向设计体验,从单点突破转向整体架构。

当机器能够理解语言、生成代码、构建系统,“写完每一行”就不再是能力的象征。真正重要的,是洞察本质、组织抽象、在混沌中抓住问题脉络。这正是 vibe coding 所揭示的变化:当编码变得像对话一样自然,难度就不在实现,而在取舍。未来区分人的,或许不是会不会写代码,而是能否驾驭被技术放大的可能性。


AI 是怎么“推理”的?
很多人第一次用 AI,都会觉得:它好像真的在思考。 它能把你没想到的知识连在一起,给出看似严谨的推理过程,甚至让人产生“更高智慧”的错觉。但事实上,AI 并不是在像人一样思考。

AI 的强大,来自见得多,而不是想得深。它读过几乎所有公开的人类文本,学到的是:在什么情况下,人类通常会说什么话。当你提问时,它不是在现场分析问题,而是在一个高度压缩的“知识海洋”里,挑选最可能成立的答案组合。所以,在人类已经反复讨论过的领域里,AI 表现得几乎无所不能;但一旦问题来到人类知识的边缘之外——没有现成答案、没有训练数据——它就会迅速变弱,甚至不如普通研究生。

近几年,AI 看起来突然“会推理”了。但这并不是它获得了真正的思考能力,而是我们用更好的方法,把原本就藏在模型里的答案捞了出来。就像从鱼竿升级成了渔网,捕获率提高了,本质却没变。

AI 之所以常常让人震撼,是因为它能轻易看见多个知识点之间的关联。那些对人类来说分散、模糊的联系,对它而言只是统计上的“显而易见”。但真正的科学突破,往往发生在几乎没有经验可循的黑暗中。那里依靠的不是联想,而是对规律的信念与独立的创造。

所以,AI 不是思想本身,但它是人类历史上最强、也最性价比最高的知识助手


如今的 AI 虽然能高效完成大量基础性工作,却会让行业活动迅速趋同,而真正的创新往往并非诞生在流程的正确性里,而是出现在现实的麻烦与偶然里。早期网页加载慢得令人崩溃,于是逼出了工程师发明图像压缩算法;科研人员被电子邮件附件格式冲突折磨得不行,才有了跨平台的 PDF 标准;甚至连青霉素,也是弗莱明因为实验室没打扫干净才“撞出来”的救命药物。这些突破都不是“流程内的正确答案”,而是源于世界的不完美、现实的卡顿、以及那些没人预料的差错。

而 AI 领域本身正在重演同样的困境。正如 Karpathy 所指出的,用模型自己那些“逻辑清晰但高度一致”的输出继续训练,只会让模型性能塌缩,因为它覆盖的只是庞大思维空间中的一条窄带,看似干净,却缺乏多样性。让 AI 替代所有基础工作,同样会让社会的思维空间收缩——缺乏噪音,就意味着缺乏新的可能。

人类的创造力来自混沌:来自孩童般的胡思乱想,也来自成年世界那种“不顺手、不顺眼、不高效”的地方;但 AI 正在像一个过度自律的大脑,不断削去路径、压缩可能、收紧探索。未来我们真正需要的 AI,不是一个记住海量事实的巨大仓库,而是一个能在需要时调用知识、真正保持推理结构的“思考机器”。而当 AI 真正学会思考,它所能替代的,就不会只停留在基层岗位了。


科幻作家 道格拉斯·亚当斯(Douglas Adams) 对“人类如何看待科技”总结了“科技三定律”:

  1. 任何在我出生时已经有的科技,都是稀松平常的,是世界本来秩序的一部分
  2. 任何在我 15-35 岁之间诞生的科技,都是将会改变世界的革命性产物
  3. 任何在我 35 岁之后诞生的科技,都是违反自然规律要遭天谴的

可能真正拖慢未来的不是科技的发展速度,而是人类对“正常”的执念。


在过去,人们常把“意志力”理解为一种有限的能量,用得越多越容易枯竭。但最近的心理学研究表明,这种看法并不完全准确。所谓“意志力下降”,更多是动机与注意力的重新分配——当我们的注意力被短期奖励吸引,或情绪资源被其他任务占用时,长远目标就被暂时“挤出”了注意范围。这其实不是能量用光,而是大脑优先级的调整

因此,提升自我调节的关键,不在于强迫自己“更有毅力”,而在于重新设计环境与流程,让正确的选择变得更容易。比如,保持固定的学习时间、在手机上屏蔽干扰、提前规划好下一步行动,都是在为大脑减少决策负担。研究发现,当我们在稳定的情境中反复执行某个行为,大脑会自动建立“线索—反应”的连接,让行动像反射一样自然,无需反复动用意志力。

行为科学家称这种方法为 “选择架构”与“实施意图” :前者通过调整默认选项和操作路径,让正确选择成为最方便的选项;后者则把目标转化为清晰的“如果—那么”计划(例如:“如果我吃完饭,就立刻散步十分钟”)。

通过这样的设计,所谓“自律”不再是一场艰难的斗争,而是一套帮助大脑更轻松执行正确决策的系统。真正的成长,不是让意志力变强,而是让环境与机制为我们服务,让“正确的事”成为最轻松的事。


我们的世界,其实是通过语言被构建和定义的。这种语言,只属于人类——它既不是自然的语言,也不是任何其他生命或系统的语言。我们的思想边界,其实正是语言的边界。这也意味着,大语言模型的根本局限在于:人类无法描述一个超越语言的世界
每当人类创造出新的词汇,实际上是在扩展感知的疆域。古代的文言文,表达着一种凝练而宏观的世界观;现代语言,则以更复杂的语法和概念去捕捉细微的情绪与感受。但无论语言如何演化,它始终是一种压缩机制——它让我们得以沟通,却也让真实被抽象、被简化。当我试图描述“恐惧”或“乐观”时,语言永远只能绕着那种感受打转。在我说出那一刻,原始的体验早已消散,只剩下意义的外壳。
AI 的错误,并不在于计算的不精确,而在于它无法真正定义人类的“定义”。因为我们理解的世界,从一开始就不是客观的世界,而是被语言压缩、翻译、再诠释之后的世界。无论是大语言模型,还是视觉语言模型,它们所映射的,只是这层层压缩后的语言之影,而非世界本身。于是,AI 的边界,也可能正是语言的边界。


记忆虽然源于过去,其根本功能却是为未来服务——确保重要的信息得以穿越时间,长期保留。人脑具备天然的遗忘机制,尤其容易遗忘那些痛苦或不重要的信息,这是大脑的一种自我保护和节能方式。然而,若我们希望克服这种遗忘,就必须反复主动地访问信息,以行为向大脑“证明”:这些内容是有价值的,值得保留。
通过不断复习,我们不仅能强化已有记忆,还能与新知识建立联结,构建更稳固的认知网络。要实现长期记忆,推荐使用“间隔重复”策略:

  1. 第一次复习:务必在学习当日完成,建议通过闭眼回忆来加强初始记忆痕迹
  2. 第二次复习:在隔天进行(如周一学习→周三复习),此时仍处于短期记忆窗口,有助于进一步巩固内容
  3. 后续复习:逐步拉长时间间隔(如一周→一个月→更久),迫使大脑在“接近遗忘临界点”时主动提取信息,从而显著提升记忆强度

对于极少数高频使用的核心知识(如专业基础理论),可进行多达五次复习。大多数一般性内容,通过三次左右的复习即可达到稳定记忆效果。


在现代社会,林林总总的理论方法和商业机构,有意无意地制造出一种幻觉:只要肯花钱,任何问题都有解决办法。但回到常识我们都明白,很多事情是“天命”,是超出人力所能掌控的。那该怎么办?最好的办法是不去执念于结果,而是把“收成”交给信念,把精力投入到能控制的环节上。

这正是农耕思维的智慧——“只问耕耘,不问收获”。它与猎人思维截然不同:猎人目光紧盯猎物本身,而农民则专注于作物成长的周边变量,比如土壤、水分和气候。前者追逐目标,后者经营过程。

对我来说,我找到的关键变量是:每周写一篇文章。只要坚持做到这一点,长期主义的基石就在,对自己最初的承诺也就在。至于写得好不好、有没有人看,这些都是“收成”的事,都可以慢慢调整,不急不躁。从这个角度讲,我也是一个“像农民一样思考”的人——专注在能耕耘的部分,余下的交给时间。


阅读是知识蒸馏,行动是强化学习,反思是自监督学习。
阅读,萃取精华,从他人经验中提炼智慧
行动,边做边学,通过试错找到更好的方法
反思,复盘调整,在思考中优化自己的认知


阅读的目的不仅仅是想知道这本书讲了什么,还是想要将这本书纳入自己的知识体系,建立新的神经元连接。但是碳基神经元连接和重建速度都比较慢,很多新知还需要花比较长的时间思考,另外建立连接还需要刺激、兴奋、能引起共鸣的东西。
AI时代的阅读策略:

  1. 选书,AI既可以帮助选书还能迅速告诉你这本书讲了什么,提供每一章的摘要
  2. 回答问题,对于有疑问的地方,一边读一边问,会比蒙头读更有收获
  3. 泛化,举一反三的能力,比如刚学会了某个概念,让AI给你讲讲看自己理解的到不到位,是不是还适用在其它领域
  4. 定制内容,阅读也是为了解惑,你可以把问题直接扔给AI,让AI生成研究报告,还可以反复追问,直到满意为止

信息量的大小取决于其克服的不确定性程度,也就是看它能帮你搞明白多少原本不清楚的事。学习就是不断把模糊的东西变清楚的过程,你学得越多,就越能快速抓住重点,越会自动跳过那些“重复的废话”。比如老司机看代码,扫一眼就能找到关键逻辑,而新手还在纠结标点符号。
对于一个全新领域的学习策略是:

  1. 对于不理解的概念,先记住,深入理解的前提是完整记忆
  2. 短时间内做大量重复,建立更多神经元连接

人类文明本质是语言文字构建的产物,所有知识均可通过语言符号系统编码传承。所谓“不可言传”的知识实质是语言表达能力不足的体现,并非知识本身的不可描述性。而语言文字分为自然语言和人工语言:

  1. 自然语言:灵活复杂,多用于文学、日常交流,允许修辞和模糊性,不利于精准构建知识
  2. 人工语言:使用有限、无歧义的词汇和规则,具有简化性而且定义清晰

所有科学领域均依赖无歧义的语言构建,否则无法深入复杂认知。人工语言的学习重点在于准确理解限定词和逻辑关系。


没有任何机器可以一直用100%的功率运转,人也一样。每个人每天都要睡觉,都要吃饭。换句话说,每个人都有一定的时间用在标准活动上。关于效率追求

  1. 必须使用适当的方法休息、放松,以便恢复精力,在良好的状态下才能做更多的事情
  2. 在做时间预算时一定要留有空间,要清楚肯定会有意外事件发生,所以要留出时间处理这些意外事件
  3. 鱼和熊掌确实不可兼得——你必须选择,选择意味着放弃,选择做某件事情,可能就不能去做另一件事情
  4. 黄金分割率1:0.618,如果你一天可以规划的时间有10小时,并且你确定自己是以工作成就为导向的人,那就可以这样规划用大约6.18小时去工作和学习,用剩下的大约3.82小时去休息去享受欢乐

很多人半途而废,往往是因为把目标定得太高,又对达成那么高的目标要付出的代价缺乏清楚的认识。


当你是正确的,同时别人也都是正确的,那“正确”本身的价值其实并不大。当你是正确的,可别人都是错误的,这时候,“你的正确”就具备很大的价值。你正确的程度越大,与此同时不认同你的人越多,这时候价值才越大。和正确本身一样,特立独行本身的价值也不大,但特立独行且正确就价值巨大了。


AI 不会减少你掌握新技能所需要付出的努力,只会让你产生不必学习就已经学会的错觉。


0%