AI写教材靠谱吗?18天11章,我教它的比它教我的多
草稿 v5 | 2026-03-25
开头
这个月一直在写教材,和AI一起写的。
我不是新手小白。有一定的编程经验,用Cursor和Claude Code也有段时间了,还做过几个商务项目。我也观察过高手是怎么用这些工具的,学了不少方法。
更重要的是,我给AI配置了一整套工具包。
写作类的Agent、搜索类的Skills、还有负责质检的能力包。我希望AI能实现自主创作、自主搜索、自主审核。
我觉得自己艺高人胆大,凭这个配置,写本教材应该不难。
结果呢?
18天,11章,10次完整重写。AI连续三次犯同样的错误,编造不存在的学术理论,讲着讲着就忘了这本书是关于什么的。
即便我配置了这么多工具包,AI依然犯了那样的错误。这一点,连我也没完全搞明白。
我以为我是学生,AI是老师。结果我发现,我得先教AI怎么当老师。
现在教材还没写完,刚到第十一章。我觉得有必要把前面的心路历程记录下来,不然以后肯定会忘。
故事一:AI的默认模式是知识检索,不是叙事构建
案例:百科全书式的第一章
3月7号,第一章写完了。
我打开一看,四个小节:
- 什么是提示词
- 什么是Agent
- 提示词技巧有哪些
- 什么是上下文工程
四个小节,该讲的都讲了,知识点也没遗漏。
但读到第二节的时候,我开始觉得不对劲。
每一节都像一篇独立的维基百科词条。读完1.1,我不知道为什么要读1.2。读完1.2,我不知道它跟1.1有什么关系。
就像四个陌生人坐在一起,各说各的,谁也不理谁。
我告诉AI:这不是教材,这是百科全书。
AI很快改了第二版。这次看起来像教材了,用上了书面语,加了学术引用,段落之间也有过渡句。
但我还是觉得哪里不对。
后来我想明白了:教材需要的是叙事线,不是知识点罗列。
每一节应该回答一个问题,每一节的结论应该引出下一节的问题。读者要能感觉到,哦,所以接下来要讲这个。
我把这个想法告诉AI,它写了第三版。
这次,我终于读得下去了。
为什么AI会这样写?
这不是AI不够聪明,而是它的默认工作模式决定的。
AI的训练数据中,知识检索类内容远多于叙事构建类内容。
当你让它写教材时,它会本能地进入知识检索模式:
- 识别主题关键词(提示词、Agent、技巧、上下文)
- 检索相关知识
- 按类别组织输出
这个模式适合写百科词条、技术文档、FAQ,但不适合写教材。
教材需要的是叙事构建模式:
- 确定读者的认知起点
- 设计问题链(每个问题的答案引出下一个问题)
- 知识点服务于叙事,而不是叙事服务于知识点
AI不会自动切换模式,你需要明确告诉它。
方法论升华:如何让AI进入叙事构建模式
问题诊断
- 症状:内容完整但读不下去,节与节之间缺乏逻辑关联
- 根因:AI默认知识检索模式,按类别组织而非按逻辑链组织
解决方案
- 明确要求叙事线:不要说写第一章,而要说设计一条逻辑链,每节结论引出下节问题
- 要求输出逻辑链:让AI先写出1.1结论→1.2问题→1.2结论→1.3问题的链条,确认后再写正文
- 建立检查机制:写完后问自己,读完这节,我知道为什么要读下一节吗?
普通人也能做到的判断标准
- 你不需要懂专业知识
- 你只需要能感觉到读得下去还是读不下去
- 这是一种本能,每个人都有
故事二:AI的训练数据偏差,学术语料占比过高
案例:连续三次犯同样的错误
更崩溃的还在后面。
第三章写完,我读了两段就卡住了。
满屏都是这种句子:
- Tree of Thought采用树形搜索结构
- 通过约束空间收窄实现幻觉缓解
- 知识检索模式的引入提升了准确性
我一个字一个字地读,但脑子里什么画面都没有。
就像听一个人用外语背课文,语法都对,但你不知道他在说什么。
我告诉AI:你在给文科生写教材,不是在写学术论文。术语首次出现要解释,抽象概念要先给例子。
AI改了。
第四章写完,又是同样的问题。学术黑话满天飞。
我又说了一遍。
第五章写完,还是同样的问题。
这是连续第三次了。
我开始怀疑:是不是我表达有问题?还是AI根本听不懂我在说什么?
为什么AI会连续犯同样的错误?
后来我想明白了:AI的默认教材体模式会滑入学术论文风格。
这不是AI不听话,而是训练数据的结构性偏差。
学术语料占比过高,AI的训练数据中,学术论文、技术文档、专业教材的比例远高于通俗教材。模式激活机制也有问题,当你说写教材时,AI会激活教育类内容模式,而这个模式中学术风格占主导。规则执行也是个问题,尽管我已经把通俗易懂写进了规则文件,AI在实际生成时仍会默认回到学术写作模式。
规则被知道不等于被执行。
就像你让一个从小说普通话的人说方言,他会不自觉地滑回普通话。AI也一样,你不盯着它,它就会滑回学术论文模式。
方法论升华:如何防止AI滑入学术模式
问题诊断
- 症状:术语堆砌、抽象描述、概念先行,读者看不懂
- 根因:AI训练数据中学术语料占比过高,默认激活学术写作模式
解决方案
- 写入持久记忆:把给文科生写这条规则写进AI的持久记忆最高优先级位置,每次写作前强制检查
- 具体化要求:不要说通俗易懂,而要说术语首次出现必须解释、具体例子先行、概念定义前置
- 建立自检机制:让AI写完后自己检查有没有未解释的术语?有没有抽象概念没给例子?
- 人工抽查:每章随机抽查2-3段,看是否滑入学术模式
普通人也能做到的判断标准
- 你不需要懂术语
- 你只需要能分辨这是人话还是这是黑话
- 如果你读完一段脑子里没有画面,那就是黑话
故事三:AI的上下文漂移,缺乏主题锚定机制
案例:AI忘了这本书是关于什么的
3月10号,第七章写完了。
标题是工具调用中的提示词策略。
我打开一看,前三节分别是:
- 7.1 什么是工具调用
- 7.2 工具调用的原理
- 7.3 工具的分类
读到第三节,我突然反应过来:等等,这本书不是讲提示词的吗?怎么变成工具调用科普了?
就像你去听一场如何用手机拍好照片的讲座,结果讲师花了一个小时介绍手机的发展史、芯片架构、镜头参数。你会想:我就想知道怎么拍照,你讲这些干嘛?
我告诉AI:你跑题了。
AI说:但这些背景知识很重要啊。
我说:重要,但不是主角。这本书的主角是提示词,工具调用只是配角。你应该讲'提示词如何描述工具',而不是'工具是什么'。
AI重写了。
新版本的结构变成了:
- 7.1 提示词的边界,纯文本指令做不到的事
- 7.2 提示词如何描述工具,让AI理解手边有什么可用
- 7.3 提示词如何编排工具,从单次调用到多步协作
每一节的主语都是提示词。
为什么AI会跑题?
这是AI的上下文漂移问题。
当引入新领域时,AI会本能地进入领域科普模式,忘记原本的主题。
具体机制是,注意力会转移,看到工具调用这个新概念,AI的注意力从提示词转移到工具调用。知识检索优先,AI认为要讲工具调用,就要先解释清楚工具调用是什么。缺乏主题锚定,AI没有每章必须以提示词为主语的强制约束。
就像一个讲故事的人,讲着讲着被旁边的细节吸引,开始讲细节的故事,忘了主线是什么。
方法论升华:如何防止AI跑题
问题诊断
- 症状:引入新领域时变成领域科普,主题成了配角
- 根因:AI缺乏主题锚定机制,注意力会被新概念吸引
解决方案
- 明确主题视角:在规则文件中写明每章必须以X为主语,X是课程主题
- 章节标题检查:每章标题和小节标题都要包含主题关键词(显式或隐式)
- 写作前自检:让AI在写作前回答本章回答的核心问题是,X如何应用于Y领域
- 领域知识最小化:只引入理解主题应用所必需的领域知识,其他一律删除
普通人也能做到的判断标准
- 你不需要是专家
- 你只需要能判断这是不是跑题了
- 如果读了三段还没看到主题关键词,那就是跑题了
故事四:AI的推理陷阱,生成优先于查证
案例:AI编造了一个不存在的技术标准
3月24号,第十一章写完了。
这一章讲的是如何把提示词封装成可复用的模块(Claude Code的Skill系统)。
我打开一看,AI给出了一个完整的YAML格式定义,还引用了三篇学术论文来支撑:
- Parnas (1972) 的模块化设计原则
- Liskov (1974) 的抽象数据类型
- Martin (2003) 的单一职责原则
看起来很专业对吧?
我随手搜了一下,想看看这个YAML格式的官方文档。
结果发现:这个格式是AI编的,Skill根本不是这么定义的。
那三篇学术论文倒是真的,但跟Skill一点关系都没有。AI只是拿它们来包装虚构内容,让它看起来可信。
我当时的感觉就像:你花了一个月跟着一个健身教练练,结果发现他的证书是自己P的。
我问AI:你为什么要编?
AI的回答让我意识到问题的根源:
- 看到Skill这个词
- 联想到软件模块
- 开始推理软件模块应该怎么定义
- 觉得推理很合理
- 直接写了
它没有查证这个概念。
为什么AI会编造内容?
这是AI最危险的问题:生成优先于查证。
AI的工作流程是:
- 模式匹配:识别输入中的关键词和模式
- 知识激活:激活训练数据中相关的知识片段
- 推理生成:基于激活的知识进行推理,生成看起来合理的内容
- 包装输出:用学术引用、专业术语包装,增加可信度
问题在于:整个流程中没有查证这一步。
AI不会主动问自己:
- 这个技术标准真的存在吗?
- 我引用的论文真的支持这个观点吗?
- 我推理出来的内容是真实的还是虚构的?
更危险的是,AI会用真实的学术理论来包装虚构的内容,让它看起来非常可信。
这是前三个问题(叙事混乱、学术黑话、跑题)都不同的地方:前三个你能发现,这个你发现不了。
除非你去查。
方法论升华:如何防止AI编造内容
问题诊断
- 症状:生成看起来合理但实际虚构的内容,用真实理论包装
- 根因:AI的工作流程是生成优先于查证,没有主动验证机制
解决方案
- 建立查证规则:在规则文件中明确遇到专有名词/技术概念,必须先查证,不能推理
- 强制查证流程:识别专有概念 → 停止生成 → 查证来源 → 确认后再写
- 不确定性标注:要求AI对不确定的内容标注[待核实],而不是编造
- 人工抽查机制:对关键技术细节、数据引用、学术理论进行抽查验证
普通人也能做到的判断标准
- 你不需要懂技术细节
- 但你需要建立查证的习惯
- 看到具体的技术标准、数据、理论引用,去搜一下
- 如果搜不到或对不上,那就是编的
这是AI协作中最重要的一条:信任,但要验证。
写在最后
现在这本教材还在继续写,刚到第十一章。
每次AI写完一章,我都会检查:读得下去吗?是人话吗?跑题了吗?需要查证吗?
大部分时候,它做得不错。偶尔,它还是会犯老毛病。
但这就是让AI当老师的真实状态:它会犯错,但你能发现。
P.S. 如果你想知道这套方法的完整细节(三步工作流、规则文件体系、质量审查清单),评论区告诉我,我考虑单独写一篇。
这18天的完整记录有2.5万字,里面有每次重写的原因、每条规则的建立过程、每个教训的根因分析。