上一篇万字长文,我写了用AI辅助完成一个企业战略规划的完整方法论。核心发现是,通过Claude Code的Find Skills功能安装了13个方法论技能包,AI从信息搜集工具变成了按框架做分析的咨询助手。
那篇文章的结论我很满意。找到合适的技能,AI就能做更好的咨询。干净利落,逻辑自洽。
但写完之后我一直在想一个问题:这就是天花板了吗?如果技能已经到位,还有没有别的方式,能让它做得更好?
AI的一次诚实自评
项目五个步骤全部完成后,我做了一次例行的技能更新检查。除了find-skill,我又增加了planning-with-files 和 agent-teams-playbook。
然后,我问AI: "你觉得你现在的能力是不是原先的版本更高级了?你现在可以做出比之前更好的工作内容吗?"
我预期它说"是的,现在更强了"。
AI没有。它给了一个非常坦率的分析:对这个项目的实际影响有限。理由是:战略规划不是多Agent编码任务,升级一个为软件工程设计的编排工具,对咨询项目几乎没有增量;真正有用的McKinsey Consultant、CEO Advisor这些技能都没有更新;最关键的是,决定输出质量的不是技能版本,而是对业务的理解深度和分析的逻辑严密性。
这个回答让我没想到。我一直在工具层面寻找提升。找希望能够给AI加载更多技能、升级最新版本、持续优化编排,但AI在告诉我,瓶颈根本不在工具。
于是我追问了一个不同方向的问题:"如果我想把这个规划做得更好,你有什么建议?不是技术上的提升,是思想上和对任务构思上的提升。"
AI没有直接给建议,而是提出了三个让问题:
- 这份规划解决的到底是谁的问题?
- 精品化定位是一个"发现"还是一个"希望"?
- 这份规划能不能被反驳?
每一个问题都指向我在整个项目中从未认真思考过的盲区。而这三个问题的背后,指向了两个根本性的能力缺口。
第一个能力缺口:对抗性思考
回看整个规划过程,有一个结构性的问题,所有的思考都是从头到尾是单一视角的。一个AI加一个人,形成共识后逐步推进。
这个过程看起来很顺畅,但顺畅本身可能就是问题。好的战略讨论应该有冲突、有质疑、有推翻。而我和AI的协作模式恰恰缺少这个。我们在一个精心构建的、内部自洽的框架里越走越深。每一步逻辑上都说得通,但内部自洽不等于与现实一致。
更深层的风险在于,AI做研究时,天然倾向于找到支持假设的证据。你搜索细分赛道机会,必然能找到支撑材料;搜索大企业碾压小企业,同样能找到支撑材料。搜索行为本身已经预设了结论方向。AI会用专业的格式和严密的逻辑呈现这些证据,让一个未经检验的假设看起来越来越像一个已经证实的结论。
效率高的确认偏误,比低效率的确认偏误更危险,因为它产出的报告看起来更专业、更完整、更有说服力。
怎么对抗?最理想的做法当然是找一个真正了解业务的人来挑战这份规划。但如果不具备这个条件,可以通过三种结构化方法来弥补:
- 假设审计。把规划中所有显性和隐性的假设提取出来,按"关键程度×置信度"分级。重点攻击关键程度高但置信度低的假设。它们是整个规划最脆弱的地基。
- 预验****尸。不问"会不会成功",而是假设三年后规划已经失败了,从多个视角分别写一份失败复盘。哪些失败原因被多个视角同时指出,那些就是真正的高风险点。
- 钢人论证。不是随便找几个反对理由,而是构建支持相反结论的最强论证。如果规划结论是"走精品化路线",就让AI全力构建"走规模化路线"的最强理由。如果最强的反面论证也站不住脚,原结论才算真正站住了。
三种方法的共同点是在系统性地寻找我的方案可能在哪里是错的。
第二个能力缺口:从"做文档"到"做决策"
战略规划的常见交付模式是:分析→写文档→排版→交付。但规划真正产生价值的方式不是被阅读,而是被用来做决策。
一份十万字的规划文档,如果管理层读完之后不知道明天第一件事该做什么,这份文档的价值就打了折扣。
具体做法是从规划中提取必须在近期做出的具体决策,每个决策给出选项、推荐理由、和"如果选错了的信号"。
决策卡片格式
────────────────────────────
决策主题:[具体选择]
选项A:[方案] —— 理由:[依据]
选项B:[方案] —— 理由:[依据]
推荐:[哪个] —— 因为:[关键判据]
如果选错了的信号:[可观测的指标]
最晚决策时间:[日期]
这比规划正文更有用——因为它逼迫人做选择。而战略的本质就是选择。
同样的思路,还可以补上两个原规划从未产出但更有执行价值的交付物——假设监控仪表盘(核心假设→可观测指标→预警阈值,连续两个季度触发则启动战略复审)和应急预案(前三大风险各一份"如果发生了怎么办")
把思维能力编码为可重复调用的技能
认识到这两个能力缺口之后,一个自然的问题是:能不能把它们从一次性的思考变成可重复调用的能力?
上一篇文章的方法论是找到现成技能并安装。这一次不同,没有现成的技能,需要自己创建。
我把对抗性思考和决策提取编码为一个新技能Strategic Stress Test(战略压力测试)。
战略压力测试 —— 四阶段协议
────────────────────────────
阶段1:假设审计
"我们以为是事实的东西,哪些其实是猜测?"
↓
阶段2:预验尸
"如果三年后失败了,最可能因为什么?"
↓
阶段3:对抗性挑战
"反对这个方案的最强理由是什么?"
↓
阶段4:决策提取
"这份文档到底要求我们做哪些选择?"
设计原则是诚实优先于舒适。它的工作就是找方案的问题,而不是确认方案很好。
这里有一个变化值得注意。上一篇文章里,战略规划的写作是线性的单Agent工作。但现在它有了真正适合的场景:多视角预验尸。从四个不同视角同时写失败故事,天然适合并行agent-teams-playbook。
回看从上一篇文章到这一篇文章的过程,有三层递进的认知变化。
- 第一层是工具发现。找到合适的技能,AI就能做更好的咨询。这不算错,但停留在"让AI做得更好"的层面。
- 第二层是工具的局限。技能升级了,AI诚实地说帮助有限。决定质量的不是工具版本,而是思考质量。
- 第三层是从技能升级到思维升级。AI辅助战略咨询最大的风险不是能力不足,而是确认偏误的系统化。对抗这个风险需要的不是更多技能,而是一套结构化的自我质疑方法。而这套方法本身,又可以被编码为一个新技能。
这就形成了一个完整的循环:用AI做咨询→发现局限不在工具而在思维→把新的思维方式编码为工具→用新工具来对抗旧工具的局限。
如果你也在用AI做战略性的工作,不限于五年规划,包括商业计划书、投资分析、市场策略,有三个做法可以立即用上:
- 完成初稿后,假设它是错的。不要问这个方案好不好,而是问如果失败了,最可能因为什么。
- 把所有陈述句变成选择题。"我们将聚焦X领域"改成"在X和Y之间,我们选择X,因为___;如果出现___情况,我们会重新考虑"。
- 区分"AI找到了支持证据"和"这个结论被验证了"。真正的验证需要反过来,让AI尽全力反驳你的结论,如果它反驳不了,结论才算站住脚。
本文基于一个真实的AI辅助战略咨询项目。项目使用Claude Code作为核心工具,通过Skill生态系统扩展AI的专业咨询能力。文中涉及的具体企业信息已做脱敏处理。