2025 个人年终总结
回看整个 2025 年,感觉这一年很难用具体结果来概括。更多时候,我还是在投入去做一件不太显眼、却有点基础的事情:在 AI 的辅助下,重新整理学习新事物的方式。
1. 逐渐理解“广泛”的价值
这一年,我对“学习”本身的看法有了一些变化。过去,我更习惯把学习理解为获取知识点,但在实际过程中逐渐发现,这样的理解有些片面。真正影响学习效率的,似乎并不是知道了多少信息,而是这些信息在大脑中是否能够形成稳定的连接,并且在适当时候否能被成功调用。
从这个角度看,学习更像是在不断构建的网络。每一次学习,本质上都是在神经元之间建立新的连接,或强化已有的连接。当连接逐渐增多、结构逐渐清晰,新东西带来的认知负荷就会减轻,理解也会变得顺畅一些。
这个过程,其实与深度学习的一些基本原理非常相似。在神经网络中,模型并不是通过记住单个样本来工作,而是通过大量样本的反复训练,不断调整参数,逐渐形成对整体结构的抽象表示。当网络足够深、连接足够丰富时,新的输入就不再需要从零开始“理解”,而是可以快速映射到已有的特征空间中。
人的学习也可以如此,当认知网络足够稠密,新知识更容易找到“落点”,理解的成本会显著下降。相反,如果知识彼此孤立,每一次学习都像是在训练一个全新的模型,自然会感到有些吃力。
这让我重新审视了“广泛学习”的意义。它并不只是涉猎更多领域,而是在为大脑提供更丰富的“训练数据”和更多样的约束条件,让已有的认知模型在不同场景中反复接受检验。单一领域的知识,往往容易形成过拟合;而跨领域的对照与迁移,则更像是引入新的数据分布,迫使模型不断调整,从而获得更强的泛化能力。
也正是在这个意义上,广泛而交叉的学习,并不是分散精力,而是在为长期的理解能力和学习速度打基础,让“越学越容易”成为一种可以被解释、也可以被重复的过程。
2. 写博客
2025 年,我又双叒叕拾起了写博客这件事,并且整了一个独立博客,并且坚定这次一定会写下去。其实很多时候“写不出来”,并不完全是表达能力的问题,而更可能是对问题的理解还不够清晰。写作会迫使人把模糊的想法摊开来,也会暴露那些被自己忽略的空白。
在这个过程中,AI(更准确地说叫大语言模型)成了一个很有帮助的辅助工具。它并不是替我完成写作,而是帮助我把零散的想法逐步整理成结构:先梳理大纲,再检查是否有遗漏;先搭起框架,再逐段填充内容,之后再借助 AI 做校对和调整。这个来回反复的过程,会不断提醒我哪些地方其实还没想明白。
让我感受比较深的一点是,AI 的优势不在于“聪明”,而在于足够有耐心。只要我愿意持续追问、反复调整表述、从不同角度重述同一个问题,绝大多数知识点最终都能被拆解清楚。当然这个过程依然需要时间,但它让“把问题搞明白”这件事变得可持续了,而不再依赖一时的精力或状态,这在没有 AI 的时候是很难做到的。
因此,对我来说,写博客与其说是一种输出方式,不如说是一种有点强度的输入过程。无论是否借助 AI,真正起作用的仍然是查证、重组和解释本身。AI 只是让这些步骤更高效,并不会替代思考。
相比短期的传播效果,我更看重博客这种形式:它允许反复修改,不依赖热点,是一种一对多的非同步沟通方式。内容一旦公开,还会形成一种温和但持续的约束,这些文字还会留下来,成为后续很好复习素材。
3. 围绕问题,而不是技术
2025 年更新的所有文章主要围绕四个主题展开:深度学习、无人机、Flutter 和 iOS。
深度学习给我带来的更多是一种思维方式的转变。与传统技术更强调规则、流程和显式逻辑不同,深度学习关注的是如何通过数据和训练,让系统自动形成内部表示和决策能力。这种从“人给规则”转向“通过训练获得能力”的变化,也让我重新思考了很多长期习以为常的技术假设。
无人机则更多来自对所处行业的长期兴趣。相比单纯掌握某项技术,我更希望理解一个完整系统是如何在真实世界中运作的:从硬件约束、控制逻辑,到环境不确定性与安全边界。这个领域可以使我跳出纯软件视角,去学习其他工程领域处理问题的方式,也让我意识到不同领域在风险、成本和可靠性上的取舍逻辑是有很大不同的。
至于 Flutter 和 iOS,则更多源于工作中遇到的现实问题,算是作为现有技术栈的拓展。
4. 从计划到复习
我发现真的可以不用执着于制定精细而长期的学习计划,这并不是因为计划没有意义,而是真正决定效果的,往往不是计划写得多完整,而是是否能持续回到知识本身。 于是,我开始把更多注意力放在了复习上。
短时间内足量重复,可以比不断接触新内容更有收获。为了避免理解停留在表层,我找到了一套结构来拆解新知识:
- 首先是主体
也就是搞清楚它究竟是什么、解决什么问题、出现于怎样的背景之中。很多时候理解困难,并不是概念本身复杂,而是对它的边界和定位并不清楚,把它和相邻概念混在了一起。 - 其次是机制
这一步关注的不是“它怎么用”,而是“它为什么能成立”。当只记住结论或用法,而没有理解背后的作用机制时,知识往往只能在极其有限的场景下生效。一旦条件发生变化,理解就会迅速失效。 - 最后是用法
也就是把前面的理解拉回现实,弄清楚在什么前提下它是合适的,在什么情况下反而应该避免使用。只有明确了适用条件,知识才不会被误用,也更容易在复杂情境中做出判断。
通过这种拆解方式,可以区分“知道一个东西”和“能在合适的时候用对它”之间的差别。对我来说,这也是把学习从被动接受,慢慢转向主动理解的一个点。
5. 重新看待 AI
这一年,我大量使用了AI,也在过程中逐渐有了一个判断。在我看来,AI 并不是一个会“思考”的主体,它更像是一个效率极高的知识重组与推理工具。它不具备真正的理解能力,也不会主动学习,但在非常多问题上,已经能够提供接近专业水准的参考。这也意味着:AI 的效果,很大程度上取决于使用者自身的认知结构。
它不会替人走完学习曲线,也不会减少必要的思考成本。该付出的努力依然存在,只是单位时间内的有效产出,有可能被放大。
6. 一些逐渐稳定下来的 AI 使用方法
在长期使用中,我总结了一些相对固定的 AI 使用方式。无论是写作还是学习,我更倾向于把 AI 当作一个可以反复协作的工具,而不是一个简单的问答系统。
6.1 写作与学习中的基本流程
在大多数情况下,我都会按照一个相似的顺序来使用 AI:
- 先尽量明确一个清晰的主题,而不是直接抛出模糊问题
- 让 AI 帮我梳理整体结构,并反复多视角检查是否存在明显遗漏
- 优先搭建系列或整体框架,再进入单篇或局部内容
- 围绕关键概念持续追问,逐步逼近理解的边界
- 通过实践或具体案例进行验证,而不是停留在表述层
- 回到整体结构,检查前后逻辑是否自洽
- 在后续阶段刻意安排复习,而不是一次性完成就搁置
这个过程并不追求“一次成型”,更像是在不断来回的整理与修正。AI 在其中的作用,并不是替我思考,而是帮助我更快找到哪些地方其实还没想清楚。
6.2 关于提问方式的一些体会
AI 给出的答案质量,往往取决于问题是不是达到可以“认真被思考”的程度。
6.2.1 拉长对话链条,合理使用长输入
现在的大语言模型已经支持较长的上下文输入(比如 GPT-5,能支持 20 万字上下文),这使得复杂问题可以分阶段展开,而不必压缩成一次性提问。但需要注意的是,长上下文并不等于“无限记忆”,模型会对输入内容进行压缩和权重分配。
因此,与其刻意控制输入长度,不如把重点放在结构是否清楚上。真正重要的信息,更适合通过结构化、列表化的方式呈现,并在多轮对话中反复回到这些关键点,而不是一次性堆叠大量内容。
在复杂问题中,省略背景往往比输入过多更容易导致误判。真正需要避免的,不是“输入太多”,而是输入杂乱、重点不清。
6.2.3 提高问题的信息密度,让结构前置
很多人在遇到技术问题时,提问往往是这样的:我的接口很慢,该怎么优化?
这个问题当然能得到回答,但对模型来说,几乎没有什么可用的上下文,只能从经验库里“随手捞”一些建议:加缓存、查索引、用异步、做压测……看起来都对,却很难真正落地。如果把问题换成这样:
我有一个对外提供服务的 REST 接口,QPS 峰值在 300 左右。当前 P95 响应时间在 800ms,目标是压到 300ms 以内。接口主要包含三部分:
- 数据库查询(MySQL,单表约 500 万行,有联合索引)
- 一次第三方服务调用(平均 150ms)
- 少量业务逻辑计算
当前限制条件是:
- 数据库结构暂时不能大改
- 第三方接口不可控
- 允许引入缓存,但需要考虑一致性
请你从 定位瓶颈、可行优化手段、预期收益和风险 几个维度,给出可落地的优化方案。如果有多条路径,请分别说明适用前提。
这个问题更容易得到高质量答案,并不是因为“问得更专业”,而是因为:
- 问题背景明确,模型不需要猜上下文
- 已经完成了初步拆解,缩小了推理空间
- 给出了现实约束,避免不切实际的建议
- 明确了输出维度,让推理有一定的边界
- 可与接受多种解决方案,而不是期待唯一答案
在这种情况下,AI 更像是在参与一次技术评审,更能有效的解决问题。
6.2.4 在必要时明确判断标准和约束条件
例如,一个很现实的问题:我该不该买一台咖啡机?
如果直接这样问,得到的回答大多是:看预算、看喝不喝咖啡、看占不占地方。这些话没错,但很难形成判断。如果换一种问法,把判断逻辑提前说明清楚:
我目前每天早上会喝 1–2 杯咖啡,主要在上班路上买连锁咖啡;
单杯价格 10–30 元,对口味要求不高,但希望稳定;
家里有固定操作台空间,早上可接受 5–8 分钟制作时间。请你先说明,判断“是否适合买咖啡机”通常需要考虑哪些维度;
然后建立分级标准,比如说:
- 使用频率稳定、长期成本下降 → 适合买
- 频率尚可但排斥清洁/操作 → 条件适合买
- 使用不稳定、明显抗拒维护 → 不适合买
最后判断我更接近哪一类,并说明哪些条件变化会反转结论。
这样做的意义不在于“得到答案”,而在于把判断过程变成可量化、可修正的逻辑链条。
6.2.5 面对复杂问题,并行比较多种解法
很多问题并不存在唯一解。例如:我想增肌,但效果一直不明显,该怎么办?
如果只这样问,得到的往往是混杂在一起的建议,很难判断问题卡在哪一环。更有效的方式是一次性要求多种独立方案:
我希望 4–6 个月增加 3–4 kg 瘦体重,目前约束是:
- 工作久坐,训练时间不固定
- 饮食受外卖影响较大
- 睡眠偶尔不足
请给我 5 条逻辑上彼此独立的增肌路径,
并对比实施成本、可持续性、增肌贡献和潜在风险。
这样得到的可能不是“一套万能方案”,而是不同路径之间的取舍关系:哪些靠时间堆积,哪些靠系统规划;哪些见效快但风险高,哪些慢但更稳定。
6.2.6 面对陌生领域,采用分难度递进的解释方式
面对完全陌生的领域,直接追求严谨的定义往往没啥用。例如想了解强化学习,与其直接问“什么是强化学习?”,模型很容易直接甩出一堆术语:MDP、策略、价值函数、探索与利用……看着更糊涂。可以这样提问:
我完全不懂强化学习。请用 4 个难度递增的层级解释,比如说:
1)生活比喻
2)游戏 / 训练宠物 类似例子
3)工程视角(状态、动作、策略)
4)严谨定义(MDP、价值函数的直觉)并说明什么场景适合用 强化学习,什么场景其实不该用。
这种“先搭脚手架,再逐步加严谨度”的方式,更符合人理解复杂知识的节奏。
6.3 一些更偏经验层面的感受
在持续使用 AI 过程中,我还有一些更偏实践的认识:
- AI 无法替人省下必要的努力,但能显著减少无效试错
- 能把问题表述清楚,无论是对 AI 还是对人,都是一项重要能力
- 可以把复杂问题拆分为若干子任务,分步处理更不易出错
- 使用更好(付费)的模型,本质上是在节省时间
- 多角度重述同一问题,有助于接近理解的核心
- 约束条件越明确,结果往往越可控
- 在进入细节之前,先补足背景,通常可以事半功倍
AI更像是一种认知放大器,而不是认知替代品。 它不会自动带来更好的理解,只是把已有的思考方式放大呈现出来。结构清晰时,它会放大效率;结构混乱时,被放大的也同样是混乱。
7. 2026
接下来的 2026 年,我还是想把计划保持在一个相对简单的状态,在已经展开的深度学习与无人机两个主题之外,逐步引入一人产品和一人技术栈这两个新的主题。它们并不只是为了扩充学习范围,而是希望从问题视角出发,理清从想法形成、到技术实现、再到实际落地之间的完整过程。
其中,一人产品目标是想尝试回答这样一个问题:当资源有限、团队规模被压缩到最小,甚至只剩下一个人时,技术的价值如何真正转化为可被验证的产品形态。相比单纯从技术角度推进实现,我更希望理解产品视角下的问题拆解方式,包括需求判断、方案取舍以及和迭代验证之间的关系。
而一人技术栈关注的是另一类更偏工程的问题:在产品需求快速变化的前提下,如何选择和维护一套相对稳定、便捷的前后端技术体系,使其既能支持快速实现,又不至于在长期迭代中被维护成本拖累。这其中涉及到效率、可扩展性以及复杂度控制之间的权衡,也是我希望系统性梳理的一部分。
在此基础上,我也会持续整理归纳如何把 AI 更自然地融入日常工作流,不只是作为辅助工具,而是参与到问题拆解、方案验证和学习整理的过程中。
除此之外,我也希望为一些更贴近生活的兴趣保留空间,比如摄影。它不以明确产出为目标,更像是一种观察方式的延伸,让我在技术之外,能有一些对现实细节的敏感度。
整体来看,2026 年的主题仍然会围绕具体问题展开:有的来自工作,有的来自日常生活。我更希望逐渐形成一种能够反复回到问题本身的处理方式,并配合相对清晰的复习节奏,让这些经验不至于随时间流失,在需要时还能派上用场。