AI 分类

人工智能疲劳是真实存在的,但却无人提及

LapisyLapisy
2026年2月13日
19

原文:AI fatigue is real and nobody talks about it | Siddhant Khare | 2026年2月8日

你在用 AI 来提高生产力。那为什么你却比以往更加疲惫?这是每个工程师都需要面对的悖论。


上个季度我交付的代码比我职业生涯中任何一个季度都多。同时,我也比任何一个季度都更加疲惫。这两件事并非毫无关联。

我以构建 AI Agent 基础设施为生。我是 OpenFGA(CNCF 孵化项目)的核心维护者之一,我构建了用于 Agent 授权的 agentic-authz,构建了用于上下文去重的 Distill,还发布了多个 MCP 服务器。我不是那种业余玩玩 AI 的人。我深入其中。我构建的是其他工程师用来让 AI Agent 在生产环境中运行的工具。

然而,我撞墙了。那种无论多少工具或工作流优化都无法修复的疲惫。

如果你是一个每天都在使用 AI 的工程师——用于设计评审、代码生成、调试、文档编写、架构决策——而且你注意到自己比 AI 出现之前更累了,这篇文章就是写给你的。你没有在胡思乱想。你不是脆弱。你正在经历一些真实的东西,而整个行业正在积极地假装它不存在。如果一个全职构建 Agent 基础设施的人都会被 AI 搞得精疲力竭,那任何人都可能。

我想坦诚地谈谈这件事。不是那种"AI 太棒了,这是我的工作流"的版本。而是真实的版本。那个你晚上11点盯着屏幕、被 AI 生成的代码包围、还需要逐一审查、困惑着为什么这个本该帮你节省时间的工具却吞噬了你一整天的版本。


没人警告过我们的悖论

有一件事曾让我百思不得其解:AI 确实让单个任务变得更快。这不是谎言。过去需要3小时的事情,现在45分钟就能完成。起草设计文档、搭建新服务、编写测试用例、研究不熟悉的 API。都更快了。

但我的日子变得更难了。不是更容易。是更难。

原因一旦看透就很简单,但我花了好几个月才想明白。当每个任务花的时间更少时,你不会做更少的任务。你会做更多的任务。你的产能看起来扩大了,于是工作量就扩展到填满它。然后还超出。你的经理看到你交付得更快,所以期望值调整了。你看到自己交付得更快,所以你自己的期望值也调整了。基准线移动了。

在 AI 之前,我可能花一整天在一个设计问题上。我会在纸上画草图,在洗澡时思考,出去散个步,然后带着清晰的思路回来。节奏很慢,但认知负荷是可控的。一个问题。一天。深度专注。

现在呢?我可能一天内接触六个不同的问题。每个"用 AI 只需要一小时"。但在六个问题之间切换上下文对人脑来说代价极其高昂。AI 在问题之间切换不会累。我会。

这就是悖论:AI 降低了生产成本,但增加了协调、审查和决策的成本。而这些成本完全落在人类身上。


你变成了审查者,而你并没有签约做这个

在 AI 之前,我的工作是:思考问题、写代码、测试、发布。我是创造者。制造者。这是吸引我们大多数人进入工程领域的原因——构建的行为本身。

在 AI 之后,我的工作越来越变成了:提示词、等待、阅读输出、评估输出、判断输出是否正确、判断输出是否安全、判断输出是否符合架构、修复不符合的部分、重新提示、重复。我变成了一个审查者。一个裁判。一个永不停歇的流水线上的质量检查员。

这是一种本质上不同的工作。创造是充满能量的。审查是消耗精力的。这方面有研究——生成性任务和评估性任务之间的心理差异。生成性工作给你心流状态。评估性工作给你决策疲劳。

我第一次注意到这一点是在我大量使用 AI 开发新微服务的那一周。到了周三,我已经无法做出简单的决定了。这个函数应该叫什么名字?我不在乎了。这个配置应该放在哪里?我不在乎了。我的大脑满了。不是因为写代码——而是因为判断代码。数以百计的小判断,全天候,每一天。

残酷的讽刺是,AI 生成的代码需要比人类编写的代码更仔细的审查。当同事写代码时,我了解他们的模式、他们的优势、他们的盲点。我可以略过我信任的部分,专注于我不信任的部分。而对于 AI,每一行都是可疑的。代码看起来很自信。它能编译。它甚至可能通过测试。但它可能以微妙的方式出错,只在生产环境中、在高负载下、在凌晨3点才暴露出来。

所以你逐行阅读。而阅读你没有写过的代码——由一个不了解你代码库历史或团队约定的系统生成的代码——是一项令人精疲力竭的工作。

这也是为什么我认为 Agent 安全和授权如此重要。如果我们无法审查 AI 产出的所有内容——而我们确实做不到,至少在规模上做不到——那么我们需要从一开始就约束 Agent 能做什么的系统。最小权限访问、受限令牌、审计追踪。你越少担心"AI 是否做了危险的事情",你就有越多的认知预算用于真正重要的工作。这不仅仅是安全问题。这是人类可持续性问题。


非确定性问题

工程师是在确定性上训练出来的。相同的输入,相同的输出。这是契约。这使得调试成为可能。这使得对系统的推理成为可能。

AI 打破了这个契约。

我有一个周一运行得完美的提示词。为一个 API 端点生成了干净、结构良好的代码。周二,我对一个类似的端点使用了相同的提示词。输出在结构上完全不同,使用了不同的错误处理模式,并引入了一个我没有要求的依赖。

为什么?没有原因。或者更准确地说,没有我能获取的原因。没有堆栈跟踪告诉你"模型今天决定走不同的方向"。没有日志说"温度采样选择了路径 B 而不是路径 A"。它就是……不同了。

对于一个整个职业生涯都建立在"如果它坏了,我能找出原因"之上的人来说,这令人深感不安。不是那种戏剧性的不安。是那种缓慢的、磨人的、背景焦虑式的不安。你永远无法完全信任输出。你永远无法完全放松。每次交互都需要保持警惕。

我试图对抗这一点。我对提示词做了版本控制。我构建了精心设计的系统消息。我创建了模板。有些确实有帮助。但没有一个能解决根本问题:你在与一个概率系统协作,而你的大脑是为确定性系统而设计的。 这种不匹配是一种持续的、低级别的压力来源。

这种挫败感实际上促使我构建了 Distill——为 LLM 做确定性上下文去重。没有 LLM 调用,没有嵌入,没有概率启发式。纯算法,在约12毫秒内清理你的上下文。我希望 AI 流水线中至少有一个部分是我可以推理、调试和信任的。如果模型的输出注定是非确定性的,我至少可以确保输入是干净和可预测的。

我交流过的工程师中,处理这个问题最好的人是那些已经与之和解的人。他们把 AI 输出当作一个聪明但不可靠的实习生写的初稿。他们预期会重写30%。他们为重写预留时间。当输出错误时他们不会沮丧,因为他们从未期望它是对的。他们期望它是有用的。这是有区别的。


FOMO(错失恐惧)的跑步机

深吸一口气,试着跟上最近几个月的变化。Claude Code 发布了子 Agent,然后是技能系统,然后是 Agent SDK,然后是 Claude Cowork。OpenAI 推出了 Codex CLI,然后是 GPT-5.3-Codex——一个字面意义上帮助编写自身代码的模型。新的编码 Agent 宣布后台模式,可以同时运行数百个自主会话。Google 推出 Gemini CLI。GitHub 添加了 MCP 注册表。收购每周都在发生。Amazon Q Developer 获得了 Agent 升级。CrewAI、AutoGen、LangGraph、MetaGPT——选一个 Agent 框架吧,每周都有新的。Google 宣布 A2A(Agent 对 Agent 协议)来与 Anthropic 的 MCP 竞争。OpenAI 发布自己的 Swarm 框架。Kimi K2.5 带着 Agent 群体架构发布,可以编排100个并行 Agent。"氛围编程"(Vibe coding)变成了一个概念。OpenClaw 推出技能市场,一周之内研究人员发现400多个恶意 Agent 技能被上传到 ClawHub。在所有这一切中间的某个地方,LinkedIn 上有人发帖说"如果你在2026年还没有使用带有子 Agent 编排的 AI Agent,你已经被淘汰了。"

这不是一年的事。这是几个月的事。而且我还漏了很多。

我深深地掉进了这个陷阱。我花周末评估新工具。阅读每一个更新日志。观看每一个演示。试图保持在前沿,因为我害怕落后。

这实际上是什么样的:我会花周六下午设置一个新的 AI 编码工具。到周日我会有一个基本的工作流。到下周三,有人会发帖说另一个工具"好得多"。我会感到一阵焦虑。到下个周末,我会开始设置新工具。旧的工具就闲置了。从一个编码助手跳到下一个,再跳到下一个,又回到第一个。每次迁移花费我一个周末,给我的可能只是5%的改进,而且我甚至无法正确衡量。

把这乘以每个类别——编码助手、聊天界面、Agent 框架、多 Agent 编排平台、MCP 服务器、上下文管理工具、提示词库、群体架构、技能市场——你得到的是一个永远在学习新工具、却从未深入掌握任何一个的人。光是 Hacker News 首页就足以让你头晕目眩。今天是"Show HN:自主研究群体",明天是"Ask HN:AI 群体将如何协调?"没人知道。所有人都在继续构建。

最糟糕的是知识衰退。我在2025年初花了两周构建了一套精心设计的提示词工程工作流。精心制作的系统提示、少样本示例、思维链模板。效果很好。三个月后,模型更新了,提示词最佳实践变了,我一半的模板产生的结果还不如一句简单的话。那两周消失了。不是投资。是花费。同样的事情也发生在我的 MCP 服务器设置上——我构建了五个自定义服务器(Dev.to 发布器、Apple Notes 集成、Python 和 TypeScript 沙箱等),然后协议演进了,然后 GitHub 上推出了 MCP 注册表,突然间有了数千个预构建的。我的一些自定义工作一夜之间变得多余了。

Agent 框架的流失更严重。我看到团队在一年内从 LangChain 换到 CrewAI 再换到 AutoGen 再换到自定义编排。每次迁移都意味着重写集成、重新学习 API、重建工作流。那些等待、什么都没做的人往往比那些早期采用、不得不迁移两次的人处于更好的位置。

我后来采用了不同的方法。与其追逐每一个新工具,我深入底层基础设施层。工具来来去去。它们解决的问题不会。上下文效率、Agent 授权、审计追踪、运行时安全——无论本月哪个框架在流行,这些都是持久的问题。这就是为什么我在 OpenFGA 上构建 agentic-authz 而不是绑定到任何特定的 Agent 框架。这就是为什么 Distill 在上下文层面工作,而不是提示词层面。构建在不会频繁变动的层上。

我仍然密切关注整个生态——当你在为它构建基础设施时你必须这样做。但我关注它是为了理解生态系统的走向,而不是为了采用每一个新东西。了解信息和盲目跟风是不同的。


"再来一个提示词"的陷阱

这个陷阱很隐蔽。你在试图让 AI 生成某个特定的东西。第一次输出70%正确。所以你优化提示词。第二次输出75%正确,但破坏了第一次正确的部分。第三次尝试:80%正确,但结构变了。第四次尝试:你已经在这上面花了45分钟,而你本可以在20分钟内从头写完。

我称之为提示词螺旋。这是 AI 版本的"薅牦牛毛"(yak shaving)。你从一个明确的目标开始。三十分钟后你在调试你的提示词而不是调试你的代码。你在优化你给语言模型的指令而不是解决实际问题。

提示词螺旋特别危险,因为它感觉像是有成效的。你在迭代。你在接近目标。每次尝试都略微好一点。但边际收益在快速递减,而你忽略了一个事实:目标从来不是"让 AI 产出完美的输出"。目标是交付功能。

我现在有一条硬性规则:三次尝试。如果 AI 在三次提示内没有让我达到70%可用,我就自己写。没有例外。这条规则为我节省的时间比我学过的任何提示词技巧都多。


完美主义遇上概率输出

工程师倾向于完美主义。我们喜欢干净的代码。我们喜欢通过的测试。我们喜欢行为可预测的系统。这是特性,不是缺陷——这正是使我们擅长构建可靠软件的原因。

AI 的输出永远不完美。它总是"还不错"。70-80%达标。变量名略有偏差。错误处理不完整。边界情况被忽略。抽象对你的代码库来说是错的。它能工作,但不对。

对完美主义者来说,这是折磨。因为"几乎对"比"完全错"更糟糕。完全错了,你扔掉重来。几乎对了,你花一个小时调整。而调整 AI 输出是一种独特的挫败感,因为你在修复别人的设计决策——由一个不与你共享品味、上下文或标准的系统做出的决策。

我不得不学会放手。不是放弃质量——我仍然关心质量。而是放弃对 AI 会产出高质量内容的期望。我现在把每一个 AI 输出都当作草稿。一个起点。原材料。我在它出现的那一刻就在心里标记为"草稿",仅这个心理框架的改变就减少了我一半的挫败感。

与 AI 斗争最多的工程师往往是最优秀的工程师。那些标准最高的人。那些注意到每一个不完美之处的人。AI 奖励的是一种不同的技能:从不完美的输出中快速提取价值的能力,而不在让它变完美上投入情感。


思维萎缩

这是最让我害怕的一个。

我是在一次设计评审会议上注意到的。有人让我在白板上推理一个并发问题。没有笔记本电脑。没有 AI。只有我和一支记号笔。我很吃力。不是因为我不懂概念——我懂。而是因为我已经好几个月没有锻炼那块肌肉了。我把初稿思考外包给 AI 太久了,以至于我从头思考的能力退化了。

这就像 GPS 和导航。在 GPS 之前,你建立心理地图。你了解你的城市。你能推理路线。使用 GPS 多年后,没有它你就无法导航。技能萎缩了,因为你不再使用它。

同样的事情正在发生在 AI 和工程思维之间。当你总是先问 AI,你就停止了建立那些来自独自与问题搏斗的神经通路。搏斗是学习发生的地方。困惑是理解形成的地方。跳过这些,你得到更快的输出但更浅的理解。

我现在刻意在每天的第一个小时不使用 AI。我在纸上思考。我手绘架构。我用慢方法推理问题。这感觉效率低下。确实效率低下。但它保持了我思维的敏锐,而这种敏锐在我当天后续使用 AI 时会带来回报——因为当我自己的推理已经热身过后,我能更好地评估 AI 的输出。


比较陷阱

社交媒体上到处都是似乎已经搞定 AI 的人。他们发布自己的工作流。自己的生产力数据。自己的"我用 AI 在2小时内构建了整个应用"的帖子。而你看着自己的经历——失败的提示词、浪费的时间、不得不重写的代码——你想:我怎么了?

你没有任何问题。那些帖子是精彩集锦。没人发布"我花了3小时试图让 Claude 理解我的数据库模式,最后放弃了手动写了迁移脚本"。没人发布"AI 生成的代码导致了生产事故,因为它默默吞掉了一个错误"。没人发布"我很累"。

比较陷阱因为 AI 技能难以衡量而被放大。在传统工程中,你可以看一个人的代码大致判断他们的能力。而对于 AI,输出取决于模型、提示词、上下文、温度、月相。某人令人印象深刻的演示可能在你的机器上、用你的代码库无法复现。

我对社交媒体上的 AI 内容变得更加挑剔。我仍然密切关注这个领域——我必须这样做,这是我的工作。但我从消费每个人的热门观点转向关注那些真正在构建和交付的人,而不仅仅是在演示的人。信号与焦虑的比率很重要。如果一个信息流让你感到落后而不是知情,它就没有在服务你。


真正有帮助的方法

我会具体说明什么改变了我与 AI 的关系——从对抗变为可持续。

给 AI 会话设时限。 我不再以开放式的方式使用 AI。我设定计时器。用 AI 处理这个任务30分钟。计时器响了,我就交付手上的东西或者切换到自己写。这同时防止了提示词螺旋和完美主义陷阱。

将 AI 时间与思考时间分开。 早上用于思考。下午用于 AI 辅助执行。这不是刚性的——有时我会打破规则。但有一个默认结构意味着我的大脑以正确的比例获得锻炼和辅助。

接受 AI 的70%。 我不再试图获得完美输出。70%可用就是标准。剩下的我自己修。这种接受是我工作流中减少 AI 相关挫败感的最大单一因素。

对炒作周期保持战略性。 我关注 AI 生态因为我在为它构建基础设施。但我不再在每个新工具发布的那一周就采用它。我使用一个主要的编码助手并深入了解它。我在新工具经过数月(而非数天)验证后才评估。了解信息和盲目跟风是不同的事情。

记录 AI 在哪里有帮助、在哪里没有。 我做了两周的简单日志:任务、是否使用了 AI、花费时间、对结果的满意度。数据很有启发性。AI 在样板代码、文档和测试生成上显著节省了我的时间。它在架构决策、复杂调试以及任何需要对代码库深入了解的事情上花费了我更多时间。现在我知道什么时候该用它,什么时候不该。

不审查 AI 产出的所有内容。 这很难接受。但如果你在使用 AI 生成大量代码,你物理上无法以同等严格程度审查每一行。我把审查精力集中在最重要的部分——安全边界、数据处理、错误路径——其余的依赖自动化测试和静态分析。非关键代码中的一些粗糙是可以接受的。


可持续性问题

科技行业有一个早于 AI 的倦怠问题。AI 让它变得更糟了,而不是更好。不是因为 AI 不好,而是因为 AI 移除了过去保护我们的自然速度限制。

在 AI 之前,你一天能产出多少有一个上限。这个上限由打字速度、思考速度、查找信息所需的时间决定。它有时令人沮丧,但它也是一个调速器。你无法把自己累死,因为工作本身施加了限制。

AI 移除了这个调速器。现在唯一的限制是你的认知耐力。而大多数人在超过自己的认知极限之前并不知道它在哪里。

我在2025年底倦怠了。不是戏剧性的——我没有辞职或崩溃。我只是不再在乎了。代码审查变成了走过场。设计决策变成了"AI 建议什么就什么"。我在走流程,产出比以往任何时候都多,感受比以往任何时候都少。我花了一个月才意识到发生了什么,又花了一个月才恢复。

恢复不是关于少用 AI。而是关于以不同方式使用 AI。有边界的。有意图的。带着这样的理解:我不是机器,我不需要跟上机器的节奏。在 Ona 工作帮助我清楚地看到了这一点——当你为企业客户构建 AI Agent 基础设施时,你会在规模上看到不可持续的 AI 工作流的人力成本。问题不仅仅是个人的。它们是系统性的。它们需要在工具层面解决,而不仅仅是在个人层面。

讽刺的是,倦怠期是我一些最好的工作产生的时候。当我停止试图使用每一个 AI 工具并开始思考什么真正有问题时,我第一次清楚地看到了问题。上下文窗口被垃圾填满——这变成了 Distill。Agent 具有全有或全无的 API 密钥访问——这变成了 agentic-authz。无法审计 Agent 实际做了什么——这正在成为 AgentTrace。疲劳迫使我停止消费并开始构建。不是更快地构建更多功能,而是有意识地构建正确的东西。


真正的技能

这是我认为 AI 时代真正的技能。它不是提示词工程。不是知道使用哪个模型。不是拥有完美的工作流。

它是知道何时停下来。

知道 AI 输出何时足够好。知道何时自己写。知道何时合上笔记本电脑。知道何时边际改进不值得认知成本。知道你的大脑是有限资源,保护它不是懒惰——是工程。

我们为可持续性优化我们的系统。我们添加熔断器。我们实现背压。我们设计优雅降级。我们应该对自己做同样的事。

AI 是我用过的最强大的工具。它也是最消耗精力的。两者都是事实。在这个时代茁壮成长的工程师不会是使用 AI 最多的人。而会是使用它最明智的人。

如果你累了,不是因为你做错了。而是因为这确实很难。工具是新的,模式仍在形成,行业正在假装更多产出等于更多价值。不是的。可持续的产出才是。

我仍然每天在这个领域构建。Agent 授权、上下文工程、审计追踪、运行时安全——让 AI Agent 在生产环境中真正运行的基础设施。我比以往任何时候都更投入 AI。但我按照自己的条件、以自己的节奏投入,构建重要的东西而不是追逐流行的东西。

照顾好你的大脑。它是你唯一的一个,没有 AI 能替代它。


原文作者:Siddhant Khare | 2026年2月8日 原文链接:https://siddhantkhare.com/writing/ai-fatigue-is-real

评论讨论

评论需要审核后才能显示