Synth Daily

LLMs 真让人心累

与大型语言模型(LLM)长时间协作常会导致效率下降和严重的挫败感。这种“心累”往往并非模型本身退化,而是源于开发者在疲劳状态下提示词质量下降,以及反馈循环过慢导致的认知负担。要提升协作效率,关键在于识别个人疲劳信号并及时休息,同时主动引导 AI 优化调试流程,通过缩短反馈周期来保持模型的“聪明”状态。

为什么协作会陷入僵局?

  • 疲劳导致提示词质量崩塌: 精神疲惫时,人会变得缺乏耐心,写出的提示词往往含糊、简短,甚至在模型输出中途粗暴干预。这种低质量的输入必然导致低质量的输出
  • 反馈循环如同“拉霸机”: 如果每次代码微调都需要等待 10 到 30 分钟才能看到结果,调试就变成了一场令人焦虑的赌博。
  • 上下文过载引发的“智力衰减”: 复杂的任务会迅速填满模型的上下文窗口。当容量接近极限时,AI 会开始表现得迟钝,甚至在不理解任务的情况下“装懂”。

建立健康的 AI 协作路径

“如果你已经不再享受编写一个完美提示词的过程,那就是该收手休息的第一信号。”

  • 拒绝认知外包的诱惑: 开发者常犯的错误是:因为自己没想清楚逻辑,就希望 AI 能填补这些空白。目前的 AI 尚不足以完美处理未定义的逻辑需求,思考的过程不能偷懒
  • 识别并修复“慢反馈”问题: 不要忍受漫长的等待。如果反馈循环太慢,就把“如何变快”作为首要任务交给 AI。要求它创建一个能在 5 分钟内运行的最小失败案例(TDD 模式)
  • 设定明确的成功标准: 通过给 AI 提供清晰的指标(如:“重现这个错误,并确保运行时间少于 5 分钟”),AI 不仅能解决问题,还会主动优化代码路径。

核心洞见

  • 保持清晰的预判: 在提交提示词时,如果你对结果没有 95% 的成功把握,通常意味着你还没想清楚问题,或者提示词写得不够好。
  • 快速迭代优于堆砌上下文: 一个极速的反馈循环能让 AI 消耗更少的上下文,从而让模型保持在最高智力水平
  • 主动休息: 当你开始感到不耐烦、频繁打断 AI 或试图敷衍了事时,立刻停止工作。清空大脑的“上下文窗口”后,第二天通常能几分钟解决头天纠结数小时的问题。