1Agent 时代的提示词工程
2大语言模型的工作原理
- 🔒2.1 LLM 如何生成文本
- 🔒2.2 温度、Top-P 与生成参数
- 🔒2.3 上下文窗口:容量、分配与管理
- 🔒2.4 幻觉、偏见与能力边界
3提示词的底层逻辑——经过验证的科学方法
- 🔒3.1 Chain-of-Thought:让推理过程可见
- 🔒3.2 Self-Consistency:同一个问题多问几次,取最靠谱的答案
- 🔒3.3 信息位置效应与提示词布局策略
- 🔒3.4 幻觉缓解:如何减少 AI 的"编造"
4System Prompt 设计——Agent 的"基因"
- 🔒4.1 System Prompt 的本质:不只是"角色设定"
- 🔒4.2 System Prompt 为什么会失效
- 🔒4.3 防漂移设计:三层方法
- 🔒4.4 实战:从零设计一个 System Prompt
5结构化提示词——从自由文本到工程化模板
- 🔒5.1 格式为什么重要:同一段话,换个写法效果差一半
- 🔒5.2 给提示词的每一段"贴标签"
- 🔒5.3 Markdown 格式:五分钟上手的结构化方案
- 🔒5.4 提示词模板:别每次都从零开始
6上下文工程——不只是"把信息塞进去"
- 🔒6.1 从提示词工程到上下文工程:给得越多,表现反而越差
- 🔒6.2 上下文窗口里有什么:四类信息争一个座位
- 🔒6.3 筛选与压缩:给 AI 最相关的信息,而不是最多的信息
- 🔒6.4 长文档策略:信息比窗口大怎么办
7工具使用(Tool Use)提示词——让 AI 学会用工具
- 🔒7.1 工具使用的提示词本质:AI 不"懂"工具,它读的是描述
- 🔒7.2 工具描述的撰写:提示词设计原则的另一个应用场景
- 🔒7.3 用提示词控制工具使用行为
- 🔒7.4 多工具协作与工具提示词体系
8多轮对话中的提示词策略——让 AI 记住重要的、忘记不重要的
- 🔒8.1 提示词在多轮对话中的衰减:为什么长对话后 AI 会"忘记指令"
- 🔒8.2 对话摘要的提示词设计:如何用提示词压缩历史而不丢关键信息
- 🔒8.3 状态追踪的提示词模式:让提示词帮 AI 记住"我们到哪了"
- 🔒8.4 对话修复:用提示词把跑偏的 AI 拉回来
10Ch10 提示词安全 — 防御注入与越狱
- 🔒10.1 提示词注入:用户输入如何"劫持" AI 行为
- 🔒10.2 提示词泄露:如何防止 System Prompt 被套出来
- 🔒10.3 越狱攻击:了解攻击才能做好防御
- 🔒10.4 分层防御架构:构建完整的安全体系
11Ch11 Skill 设计 — 从提示词到可复用的能力模块
- 🔒11.1 什么是 Skill — Claude 的可复用能力模块
- 🔒11.2 SKILL.md 文件格式 — Skill 的标准载体
- 🔒11.3 Skill 设计方法 — 从需求到实现
- 🔒11.4 实战案例 — 设计一个会议总结 Skill