2026 年,也过去 1/4 了,现如今,AI 真的以一种几年前想象不到的速度发展,2022 年年底,ChatGPT 的发布,当时可是震惊了科技圈,第一次使用 ChatGPT 的时候,给我带来的奇特感觉,至今也难忘怀。不知道你们有没有用过微软小冰。上大学的时候折腾过,吐槽过。而现在,“豆包” APP 已经深入到每个人的手机里。没想到当年被我吐槽为“人工智障”的 AI,现在已经变得如此智能。
然而即使是在 2022 年底的时候,我也没有想到生成式 AI 的生长速度可以如此迅速,OpenAI、Claude、Gemini、各家模型百花齐放,争相斗艳。并通过 DeepSeek、豆包、OpenClaw 等模型、工具的破圈,真真实实地影响到了每一个人。
作为一个程序员,且对科技有着浓厚兴趣的我,不敢称走在时代前沿,但也是紧跟 AI 的脚步。近两年来,也是让 AI 深度参与了我的工作和生活,我想谈谈我的几点体会。
效率至上
不得不说,现在是一个效率至上的社会。各种新鲜事物蓬勃发展,人们的节奏也就越来越快。正如热力学第二定律,这是一个熵增的过程。
然而,一个可怕的事实是,这种情况下,我们会变得愈来愈浮躁:想想你是不是很久没有读完一本书;是不是很久没有认真做一顿饭;是不是看视频都要倍速。小学奥数学过的煎盘烤饼的问题,现如今变成了每个人的必备技能——多线程并发处理任务。
而 AI 这种跳过过程直接拥抱结果的工具,更是加速了这种浮躁:
- 妄想用四个月走完别人十几年走过的路
- 妄想用三言两语,就拿到和别人打磨多年一样效果的产品方案
- 妄想用一次治疗解决多年的顽疾
- 妄想用三分钟读懂《百年孤独》
- …
追求效率对于这个商业社会自然是一件再正常不过的事情了,毕竟效率代表着利益,降本增效是它的必然逻辑。不过效率的反面是什么呢?
管理学中有一个概念,叫做忙碌陷阱(The Busyness Paradox)。“忙碌陷阱”实际上是在说,一个人越忙,往往他产出的有效价值就越低。这种悖论强调的是忙碌和成就之间的一种非线性关系。
有的时候,我们为了追求极致的效率,反而过度去优化流程,从而挤压了我们的思考时间,最终导致损害了我们长期的产出质量,或者说创新能力。这其实是一种线性的加速思维模式。也就是说,追求效率本质上就是一种线性加速的思维。
如果要讨论效率的反面是什么,我认为效率的反面是“沉淀”。沉淀应该是效率的一个直接对立面:
面对危机时的表现
效率过高往往意味着极度的精简与紧凑,任何一环的断裂都可能导致崩盘。而沉淀则会形成“冗余”,这种看似低效的冗余,恰恰是系统在面对危机时韧性的来源。
核心追求的差异
(a) 效率追求的是“短平快”和产出。
(b) 沉淀则需要“慢与深”,即深度的积累,追求的是一种厚度。
时间周期的不可逾越性
比如技术壁垒或长久的核心竞争力,这些没有任何一个是能单纯依靠提高效率就缩短周期的。它们必须经过时间的过滤与打磨。
当我们陷入这种“忙碌陷阱”的时候,把我们所有时间都填满效率,大脑实际上会失去一种发散的空间。很多灵感或创意,其实诞生于一些所谓无所事事的时刻。
比如我们经常强调的:
- 艺术中的留白
- 影视剧中的开放式结局
- 商业中可能存在的试错
这些空间其实是创新的温床。如果我们完全投入到追求效率的路径中,一味地去消除低效,往往也抹杀了创新的可能性。
追求效率会让我们在一条已经决定好的跑道上加速,快速的到达我们想要的目的地;但如果我们能“反效率”地去沉淀,这个时候抬头看路,其实更有时间去思考:这条跑道是否真的能通向我们要抵达的目的地。
追求效率本身其实并没有什么错,但是过度追求效率,往往意味着我们缺少了一些沉淀。
有些事情是不能通过追求效率来解决的。比如在运动方面,低心率有氧跑可能是一种最没有效率的训练,短期内也看不到什么进步,但长期坚持下去,确实会有惊人的效果。
这就是沉淀的作用。
其实有篇文章写得比较好,它提到
我们有时候并不是在追求效率,而是存在一种对浪费时间的恐惧。也就是说,我们的生活是被时间统治了,而不是我们拥有了时间。
在“效率”这张皮下,其实是对“无意义感”的一种恐惧。
对于 AI,我认为正是因为 AI 把“沉淀”这个步骤直接省略了,所以它带来的不是能力的增强,而是欲望放大。。这种浮躁从社会投射到工作中,也是如此。
近两年来,尤其是从去年年底到现在,我一直都在用这些 AI 工具辅助我进行代码编辑,帮我完成开发工作。
无论是 Claude 4.6 Sonnet 还是 Gemini 3.1 Pro,它们每次发布新版本,都能在工期非常压缩的情况下,给我带来真实的效率提升,让我能够及时赶上 DDL。
但随着使用越发深入,我确实产生了一种奇怪的感觉:
- 虽然现在我的 AI 代码率可能已经高达 90% 以上,交付速度很快,但与此同时,我对自己项目的理解深度却在悄悄下降。
- 这种感觉在最开始接触 Figma Make 或 Lovable 这类工具时就很难形容。你只需在对话框中简单输入一些想法,它几分钟就能输出一个可点击的界面。以前可能需要几天的原型工作,现在一个下午就能搞定。
- Cursor 或类似的 AI Code 工具更是如此。以前面对复杂需求,我会先在脑中想清楚架构,再去拆解,然后一个小模块一个小模块地编写;现在很多时候,我会直接把需求描述给 AI,让它帮我规划、设计并给出方案,我觉得差不多了就接着往下走。
也就是说,我们的工作从“系统构建”变成了一个“调试生成结果”的游戏。我们从系统的构建者或生产者的角色,转变成了一个消费者的角色——消费的是 Token,消费的是 Prompt。
这种游戏非常容易让人上瘾,因为每一次 Prompt 都是一次及时的正反馈。我们不再需要忍受那些方案想不清楚的痛苦,也不再需要因为不知道怎么写代码而盯着控制台发呆,只需要给出描述并等待输出就行了。
现在的 AI 编程或者说 Vibe Coding 就是同理,思考的不确定性和痛苦完全被跳过了。短期的这种正反馈肯定会带来更快的交付。
比如说,我们通过一些初步的讨论,就可以通过 Figma Make 之类的工具去呈现一些原型(Prototype)。然后我们的工程师可以用 AI 迅速编码出一些 Live Data High Fidelity Prototype,再过两天就能上线了。
但是紧接着我们就会发现,有大量的 Corner Cases 没有考虑,代码其实是不可维护的,也就是说,这种“爽”是有代价的。这就是我们下一篇要聊到的:AI 给我们带来的“债务”。
隐形债务
技术债务可能是很多人用 AI 时,第一个就能轻易理解和体察到的东西。
因为 AI 生成的代码质量参差不齐,很多边界情况考虑不足。即便我们让 AI 进行一些设计,它可能也考虑得不够周全,导致后期维护成本很高。这是一个非常显性的问题,而且我觉得很多人也意识到了。我们通常会通过一些方法,比如 各种Skills、Spec、乃至派生出来的工作流,例如 Superpowers、Get Shit Down 等,通过 SDD、TDD 开发来解决或减少这种技术债务。
但是,还有另一种更隐蔽的债务,我把它叫做“理解债务”。
就是说,有一天我打开自己项目的某一个模块,发现我竟然说不清它为什么是这么设计的。这并不是因为逻辑有多复杂,而是因为这段代码是 AI 写的。
在当时开发的时候,可能我确实有自己的构想和一些小设计,但最终的设计是由 AI 完成的:
- AI 完成了设计
- AI 完成了代码
- 我最后的工作仅仅是调试代码,确认它可用、能跑就行
我并没有去深入理解它,或者说没有时间去理解它。AI 生成的速度太快了,快到我没有时间去阅读它的所有代码。代码是我的,理解却不属于我。这是一件很危险的事情。
而更危险的是,我们往往意识不到这种危险。
因为 AI 给我们的反馈太及时了。及时到当所有创造都被压缩成一次次的即时输出,我们会渐渐误以为:我变强了。
AI 确实让我们更快,让我们更敢于动手,让我们觉得自己成了一个”能力更强的人”。但仔细想想,这种感觉从何而来?它来自于交付速度,来自于原型的快速呈现,来自于每一次 prompt 之后那个令人满足的输出结果。
然而真正的能力,从来不是这些。
讽刺的是,AI 让我变快了,我却反而更焦虑了。
开发过程中,我把代码交给了 AI ,却还是会嫌它输出太慢——明明已经比自己写快了十倍,我却开始盯着那个闪烁的光标,心里催它:快一点,再快一点。我想马上看到结果。这种急于求成的心态,是 AI 带给我的,还是我本来就有、只是被它放大了?
我想是后者。
我们不再愿意忍受”慢”。不再愿意独立坐在那里,对着一个想不清楚的问题发呆。不再愿意一个人把一段逻辑从头想到尾。这不是能力的扩张,是欲望的膨胀。
欲望越多,限制越多;欲望越大,自由越少。
AI 给了我们瞬间的确定性,却悄悄偷走了”慢的智慧”。
我们一方面希望产品取得长期可靠的成功,另一方面又期待决策更快、思考更快、结果来得更快。这两件事,本质上是矛盾的。真正的洞察和判断力,恰恰来自那种缓慢、枯燥、无法跳过的过程——来自盯着问题发呆的那半个小时,来自一个方案改了又改的那几个版本,来自无数次试错之后才慢慢沉淀下来的直觉。
AI 可以帮你跳过这个过程。但你跳过的,正是你本应成长的地方。
这种欲望的膨胀,其实并不只是发生在我个人身上。当它蔓延到我们团队的时候,问题就会被放大。
我观察到一个现象:自从用了 AI 以后,大家变得更“敢”了。敢什么呢?动不动就想要重构,动不动就想要造轮子。在我们方案还没有想清楚的时候,就已经让 AI 开始生成代码了。因为执行的成本变低了,我们的决策也变得更加随意。
但这里面可能藏着一种危险的错觉。AI 确实降低了执行成本,但它没有降低我们的判断成本。当我们做出一个方向错误的决策时,AI 帮我们执行得越快,只能让我们距离正确的目标越来越远,更快地走到错误的那一边。以前走弯路,我们发现以后偏移还不远;现在有了 AI,可能一周就走远了,速度更快,代价也更大。
更进一步说,当“所有方案都让 AI 出”成为常态时,真正需要人来完成的核心任务,就是判断这个方向到底值不值得做。如果这个环节被悄悄跳过了,产品团队的核心价值就会丧失——我们的价值不是生产方案,而是筛选方案。如果方案的生产成本趋近于零,筛选的标准反而会跟着模糊。
我想举个例子来说明 AI 在工作中的边界到底在哪里。
大家知道 OpenAI 在推出“结构化输出”功能时,曾公开过一篇技术文章。他们训练了当时最新的模型 GPT-4o,专门针对 JSON Schema 的遵循能力进行了优化。在复杂的 Schema 评测中,模型得分从 GPT-4 的 40% 以下提升到了 93%。
这个结果听起来很厉害,但 93% 在生产环境里是不够的。所以他们做了第二件事:
- 用传统的工程方法,把 JSON Schema 转化成上下文无关文法(CFG)。
- 在模型每生成一个 Token 的时候,实时计算哪些 Token 是合法的,把其余的概率压到 0。
这部分不是 AI,而是确定的规则型代码。靠着这种确定性,结果才从 93% 提升到了 100%。
这件事说明了一个根本性问题:AI 输出的东西是概率性的,而工程的约束是确定性的。在需要 100% 可靠的地方,我们必须用确定性的东西去兜底。而“判断哪里需要兜底”,恰恰是人的工作,而不是 AI 的工作。
连 OpenAI 自己都没有把这件事交给 AI 去解决。所以当我们说“AI 能做一切”时,其实是在混淆两件事:
- AI 能够生成看起来正确的东西
- AI 能保证正确
前者很容易,后者到今天为止依然需要人来设计那个兜底的逻辑。换句话说,AI 虽然能在个人基础上集成群体的智慧,但由于模型污染、本身缺陷以及基于概率的本质,注定了它无法生成一个能保证完全正确的方案。它不可能去生成这样一个东西。
祛魅之后
说了这么多问题,我想说清楚一件事:我没有否定 AI,我每天还在用,而且会继续用。
祛魅,不是失去热情,而是一种成熟。
从“AI能做什么”转向“我想做什么”,从“让AI帮我生成”转向“我用AI来思考”——这是我这半年来最大的转变。
具体到工具使用上,我现在给自己立了一条规矩:AI可以帮我写代码,但架构必须是我先想清楚的。 它生成的每一段关键逻辑,我都会认真读一遍,确认我能用自己的话解释清楚它在做什么。如果不能,我就继续问,直到我真正理解为止。
这样效率确实慢了一点。但我开始重新感觉到——这个项目是我的,不只是一堆AI帮我生成的文件。
在工作层面,我认为现阶段 AI 最适合做的事情是执行,而不是决策。让 AI 帮你写代码、生成方案、整理文档,这些都很好。但“这个方向值不值得做”、“这个设计对不对”、“这个方案的最大风险在哪里”——这些判断必须是人来完成的,而且不能偷懒。
如果你丧失了独立思考和判断的能力,过度依赖 AI,那么你最终只会沦为一个只会机械输入指令的工具。
在个人成长上,我想引用一句话(来自 Teresa Torres ),它让我印象很深:
I don’t outsource my thinking to LLMs; I use them as thought partners. I make sure I understand everything it suggests, so I ask detailed questions until I do.(我不把思考外包给LLM,我把它当成思考伙伴。它给的每个建议,我都确保自己理解,直到我能解释清楚为止。)
AI 最大的价值,不是让你做到更多,而是让你更快看清自己的边界在哪里。边界不是弱点,是起点。当你知道自己的边界,你才能决定要不要突破它,以及用什么方式突破。
道家说“知其白,守其黑”。白是能力,黑是局限,二者共存才完整。AI把“白”无限放大,让我们感觉无所不能——但“黑”并没有消失,它只是变得更加隐蔽了。我们看不到自己的理解盲区,看不到自己正在退化的深度思考,看不到那些被跳过的、本应属于自己的成长。
这才是最大的风险。
所以,真正的智慧不是一头扎进 AI 的怀抱,也不是挥手拒绝它,而是——
在AI的幻象里,摸清自己的边界,看见真实的自己。
2026年,我们都在学习如何和AI协作。
拥抱它,但别忘了你是谁。
12小时前