导言:为什么精准提问是AI时代的核心素养?
AI发展速度迅猛,转折点来自2022年11月30日正式发布的 ChatGPT-3.5 产品,从该节点开始,AI时代正式到来,走入到千家万户。ChatGPT 无愧它划时代产品的称呼,发布仅5天,用户数突破100w,两个月内的月活跃用户达到1亿,成为历史上增长最快的消费级应用。
ChatGPT 后续迭代的 GPT-4,GPT-4o 及多个版本并没有突破原有的AI使用规则。更扩大范围的去看待,所有的AI产品,使用规则都是极其相似的,包括 ChatGPT 之后所出现的 Gemini、Claude、DeepSeek 等多个产品。
那么,AI的使用规则到底是什么?这需要从 ChatGPT 的性质说明,ChatGPT 是对话式AI的里程碑,真正实现了人机对话。而涉及到对话(沟通交流),最核心的能力在于让对方理解我所想表达的真实需求。沟通的精准性决定了沟通的质量,哪怕是对话式AI也无法逃脱这一规则。
因此精准提问是AI时代下,最核心的能力之一。这意味着我们需要足够了解自己,足够清楚自己的目的以及足够的表达能力。
AI的强大与局限
从AI吸收了整个世界的所有知识那一刻开始,就注定了AI的强大。按逻辑而言,集齐全世界的精华知识,AI在所有领域的回答水准会始终保持在人类的巅峰,但事实并非如此。AI时常会出现语无伦次或者回复内容与用户提问毫无联系,因为AI在吸收人类文明最重要知识的同时,也同时吸收了大量糟粕。大量知识的混乱,观点之间的冲突,不同认知层次对同一问题的看法,都在考验AI,因此我们可以认为AI在以上情况下,是一个矛盾体(与人类性质完全契合,折射了人类知识体系本身的复杂性与分裂)。
AI作为矛盾体,回答问题时也是矛盾的,例如:用户问“什么是爱情”,小学生需要童话式解释,诗人需要隐喻,哲学家需要本体论讨论。AI会根据用户提问中的关键词自动匹配认知层级,但常错判抽象概念,这正是矛盾性的体现——它知道所有答案,却不知道哪个答案最适合当前的人类。因此AI永远不能替我们做出选择,它并不了解提出当前问题的当前人类。
以上即说明了AI作为工具的本质与“垃圾进,垃圾出”原则,绝大多数情况下,给出"垃圾"的问题,就会得到"垃圾"的回答。由于AI本身性质,哪怕是"垃圾"的回答,也会显得非常有逻辑条理,即头头是道的胡说八道,例如编造不存在的参考文献。
“精准提问”的定义
精准的提问不仅仅是技巧,更是思维方式和沟通艺术。
从“垃圾进垃圾出”原则反推:精准提问的本质是输入质量控制,定义应强调“降低信息噪音”。通过收束提问信息,进而收束AI反馈结果的范围。
我认为,精准提问需要具备以下3个核心要素:
(1)概念收束。将AI从各种矛盾观点中解放出来,能极大幅度的提升AI回复的质量,未明确指定视角概念时,AI默认用户输入内容正确为出发点进行推理,然后发散性的去进行回复,内容深度精度会大幅度下降。
(2)需求洞察。需要剥离模糊表述,所有宽而泛的内容,都应该去除,避免水字数。声明需求层次,让AI明确它所需要解释的对象是谁(例如:小学生、初中生、高中生、大学生),越明确自身实际所处认知阶段,AI所给出的结果越契合用户理解。从而将抽象知识转化为适配当前场景且易于自身理解的解决方案。
(3)边界能力。除了对自身的认知,还需理解AI的能力边界。AI擅长推理,不擅长情感,我们使用AI时需要扬长避短。推理是严谨明确的,而情感的矛盾且混沌的。同时利用AI的知识整合能力,绕过AI的主观判断,更多将其当作工具使用,而不是决策者。
AI不擅长情感,不代表不能输出优美的情感语句,而是不易产生共鸣,所有的情感表达都需要契合对应的应用场景才能爆发强大的威力,AI的情感表达是独立于场景的,优美但只适应通用场景。
想得到一个契合的答案是困难的。站在AI的视角中,它需要满足以下3个条件才能给出完美的答案:
(1)掌握自身水准(完全符合)。
(2)掌握对方水准以及客观实际的真实情况(取决于用户)。
(3)掌握正确的解决方案,根据自身理解以及对方具体情况,针对性微调(取决于调用知识库)。
这个世界上没有通用的解决方案,所有走通,看似正确的道路,都只适合开辟这条道路的人。后来者不一定具备前者的强素质,邯郸学步只会贻笑大方,完美的计划需要完美的执行力去适配。
精准提问带来的价值
精准提问能给我们带来哪些价值?
我认为主要有4点:效率提升、深度洞察、创意激发、错误减少。
(1)效率提升是最明显的收益。精准提问首先减少提问的迭代次数,模糊问题平均需多3-5轮追问修正(例如“帮我写文案”→“什么产品?→目标人群?→卖点?”)。需要注意:追问修正技巧非常重要,将大需求拆解为小要点进行提问,所得精准度会大幅度提升。我们需要做的是,在合理范围内缩减不必要的追问修正次数,不在同一问题上重复修正提问。
(2)深度洞察是最重要的收益。AI的优势来自严谨的推理链,推理能得到很多潜藏于表面之下的深层信息,而这类信息通常直击行业、社会、国家、世界运行的底层规律。理解底层规律信息,能有效地提升认知水平,且容易看到问题产生的本质原因。
(3)创意激发来自AI的资源整合。从互联网的信息海洋中抓取各种不同视角、不同行业的信息,信息知识的碰撞更容易产生新的创意,站在多个视角下更容易发现需求。该原理来自跨学科思考,利用完善的行业降维打击初期迭代的行业。
(4)错误减少为AI的幻觉率降低。防御AI的三大陷阱:事实幻觉、逻辑谬误、认知偏差。
事实幻觉:需要锁定AI的信息来源,避免AI编造相关的政策细节。
逻辑谬误:需要AI给出推理过程,例如展示三步归因过程,从而避免“相关即因果”错误。这是一种经典的逻辑谬误,指错误地将两个事物的相关性(伴随发生)等同于因果关系(一个事件导致另一个事件)。这是AI和人类都极易掉入的思维陷阱,尤其在数据分析中危害极大。在我阅读《社会心理学》第11版时,书中就重点强调了"相关即因果"的危害性,举例了: “穿名牌的学生成绩更好 → 错误归因‘穿名牌提升成绩’(忽略家庭资源因素)”的佐证。
认知偏差:需要多视角验证结论,纠正AI单一立场的倾向(AI默认用户立场,例如用户认为这件事情不好,AI就会直接假定这件事情不好为立场),而不能多角度思考,往往会令观点走向极端化。
本手册目标
本手册的目标为掌握提问的系统方法论,令我们成为驾驭AI的“超级提问者”。从而超越简单的“提问模板”(即基础的Prompt提示词工程),而是系统性思维模式与认知能力的体现。
该小册分为六大节内容,分别为:
(1)认知篇 - 理解AI的“思维”与提问的本质。
(2)准备篇 - 提问前的关键思考。
(3)技巧篇 - 精准提问的核心方法论 (提问工程精髓)。
(4)实战篇 - 不同场景下的精准提问策略。
(5)优化篇 - 评估、迭代与提升。
(6)进阶篇 - 提问心理学与未来展望。
AI的到来是势不可挡的,我们应该展望人机协同的智能未来,而非如同历史中砸毁珍妮机的工人。《2001太空漫游》开头那个著名的蒙太奇镜头--猿人掷出骨棒切到太空船的镜头,这寓意着人类工具的进步。而AI未必不是另一个由人类掷出的骨棒。
第一部分:认知篇 - 理解AI的“思维”与提问的本质
1.1 窥视“黑箱”
我们需要打开"AI思考"的这一黑箱,深入AI如何理解和处理我们的问题。
大型语言模型(如ChatGPT/DeepSeek-R1)处理问题的本质是基于统计的模式预测,而非真正的“理解”。从文字到智能,通过以下3点实现飞跃:
(1)数字ID:让机器认识“词”。
(2)向量嵌入:让机器理解“词义”。
(3)注意力机制:让机器把握“上下文关系”(如“苹果”在“吃”和“股票”前的不同含义)。
1.1.1 数字ID
将用户输入的问题拆解为最小单位(如“精准提问”→ [“精”,“准”,“提”,“问”]),每个词对应一个数字ID。每个词转换为768~12288维向量(如“苹果”= [0.24, -0.17, ..., 0.83]),用于捕捉语义关联。
因为计算机无法直接处理文本(只能计算数字),所以必须将词拆解为最小单位后,分配对应数字ID。而数字ID建立词表映射关系,类似用学号指代学生。建立映射表是为了实现转换,即把AI回复的内容从数字ID转回文字进行输出(机器可计算→人类可读的双向转换)。
每个词对应的数字ID是固定的,统一标准,避免一词多义的混乱。且用数字ID替代字符串能极大降低内存占用。
并且数字ID是唯一连接机器计算与人类语言的桥梁,模型无法直接输出文字(神经网络仅处理数字)。
1.1.2 向量嵌入
那为什么拥有数字ID后,每个词还需要转为维向量?因为数字ID存在无法表达语义关系的致命缺陷,而表达语义关系是对话式AI的核心。高维向量表达如下案例所示:
// 每个词转换为高维向量(如300~12288维)
“国王” = [0.21, -0.53, 0.78, ..., 0.02]
“王后” = [0.19, -0.51, 0.75, ..., 0.01]
“苹果” = [-0.33, 0.28, -0.04, ..., 0.67]
通过向量距离计算语义关联(权重值):
distance(国王, 王后) = 0.08 # 很小 → 语义相近
distance(国王, 苹果) = 1.37 # 很大 → 语义无关
1.1.3 注意力机制
但完成通过向量距离计算语义关联并非结束。还需要根据维向量所计算出来的语义关联结论,进行捕获上下文,从而一步步推出下一个词是什么,最终组成完整的句式。
将分词后的向量按顺序拼接为矩阵:[精] + [准] + [提] + [问] → 矩阵X。实现注意力权重分配,即计算词与词之间的关联强度(例:提与问权重最高,组合为“提问”这个语义单元)。
精:权重0.1
准:权重0.3
提:权重0.8 → ┐
问:权重0.9 → ┘ [强关联对]
通过加权平均所有输入向量,生成代表当前语义的上下文向量:C_t = 0.1×[精] + 0.3×[准] + 0.8×[提] + 0.9×[问]。将“精准提问”从四个独立词融合为单一语义实体(类似人脑理解短语),C_t即单一语义实体,t含义为独立词数量。
然后基于 C_t 预测可能的后继词概率分布:
需要:概率 38%
的:概率 25%
方法:概率 17%
...(其他词概率<5%)
按概率选择“需要”→ 添加到输出序列:[精准提问][需要]。将新词“需要”向量加入,重新计算上下文向量 C_{t+1},循环迭代直至完成,最终生成所需内容。按概率采样即按比例进行随机分配,加入随机性避免机械回复,因此哪怕每次输入同样的问题,给出的回复都是不会完全一致。
新输入:[精][准][提][问][需要]
新权重:聚焦“提问需要”组合(如“需要”权重0.95)
我们可以通过1.1.3小节的注意力机制发现:文字必须逐渐生成,这是语言模型的本质限制。LLM是基于上文预测下文的统计模型(类似超强版输入法联想),无法一次性输出长文本。若试图直接生成完整句子,需同时计算所有词组合概率(10个词有100亿种可能),算力不可行。且每个新词会改变语义重心(例:“提问”后接“技巧”vs“误区”,将导向完全不同路径)。
因此LLM虽然通过向量计算语义关联,实现“理解”假象,但缺乏真正规划能力,只能走一步看一步,存在本质矛盾。所以精准提问的价值在此凸显,明确的指令→ 为模型提供路线图,减少预测路径分支。限定范围(如“仅谈前端JS场景”)→ 缩小向量搜索空间,避免偏离。
导言中“精准提问是AI时代核心素养”——实则是用人脑的全局规划弥补机器的局部视野。
数字ID和向量嵌入实现了智能计算,而注意力机制和数字ID实现生成文字让人理解。
(1)编码方向:文字 → ID → 向量 → 智能计算。
(2)解码方向:概率分布 → 新ID → 文字 → 人类理解。
这种设计使AI既能咀嚼数字,又能吐出诗文。而精准提问的价值,正是通过优化输入端的ID序列质量(如明确指令减少歧义ID),最终获得输出端更精准的ID→文字转换结果。
1.1.4 深度思考
2023年6月,Claude 2 成为首个在应用层明确显性使用深度思考模式的AI产品。而深度思考是当前大语言模型(LLM)最前沿的探索领域。该能力可以极大幅度的提升AI回复的内容质量,其核心原理在于突破概率贪婪陷阱(优先选择概率更高的词汇)。
(1)普通模式:选择局部最优词。 (2)深度思考:强制探索全局最优路径。
深度思考模式在一定程度上模拟了1.1.3小节说明的人脑全局规划,因此深度思考模式能在一定程度上获得精准提问的部分收益(这里不再提及具体收益,详见导言中 精准提问带来的价值 )。
深度思考模式中较为显性的收益为幻觉减少,这得益于深度思考会拆解问题,将要素拆分成多个步骤组成思维链,每个步骤都会与下个步骤进行错误检测,看前后步骤是否矛盾,若矛盾则触发自我修正机制。
因此我们能够得出一个较为残酷的真相,LLM模型永远无法真正”理解”文字。
深度思考本质上只是更高级的模式匹配,主要存在以下3重理解力鸿沟,分为以下3步骤:
(1)匹配知识库中的相似问题。 (2)复制高赞回答的解题框架。 (3)替换解题框架中的具体内容。
根据以上信息,我们能得出深度思考在更需要思维逻辑的领域会有更高的提升,且经过深度思考所返回的内容特别喜欢分点作答的原因也得以突出。
深度思考更多的是工具革命,通过算法强制分布推演,将LLM模型的潜力释放到极致,使回答质量飙升。但当前LLM模型的”思考”本质依旧是符号关系的拓扑重构,这只能进一步证明精准提问的价值。
但深度思考功能最终将我们窥视的”黑箱”变成了”玻璃箱”,即结果的来源可追溯,能极大程度上锻炼独属于我们的深度思考,我认为这是该功能最重要的价值,使人类的进步学习曲线更加平缓迅速。
得出结论:深度思考是非常跨时代的功能,必须使用但不能过度依赖,因为LLM模型的深度思考永远无法替代人脑的深度思考(每一步思考都会使下次思考走向发生变化,多次变化所累积下来的思考走向是无穷的,AI无法每次都预判成功思考走向,多次偏差会导致结果导向非理想)。
人类理解与LLM模型的三重理解鸿沟如表1-1所示。
表1-1 理解力的三重鸿沟
| 维度 |
人类理解 |
LLM“伪理解” |
| 语义根基 |
联系感官体验(“红”=血液/晚霞) |
向量位置接近“颜色”相关词 |
| 逻辑本质 |
因果模型构建(A→B因能量传递) |
统计共现(A后常出现B) |
| 意图把握 |
洞察弦外之音(反讽/隐喻) |
依赖训练数据中的表面模式 |
1.2 语言即指令
词语、结构、语境对AI输出产生决定性影响。
1.2.1 词语
根据1.1.2小节的向量嵌入可知,每一个词都对应高维向量,而高维向量会点亮特定知识区域的知识簇。这很有意思,点亮的是谁的知识区域?点亮的是参数矩阵的特定区域,我们需要理解LLM大模型本质是由数千亿参数构成的超级函数,每个词对应的向量,实则是打开参数矩阵特定区域的坐标。
这与传统的数据库是完全不同的知识存储与检索方式,与LLM的点亮机制进行比对如表1-2所示。模糊点亮是一个非常核心的理念,这趋近于人脑工作原理的概念联想,所以输出内容会更接近人类思维(发散性),最终输出从被点亮的区域中抽取概率最高的词序列组合成回答。因此词语会对AI输出产生决定性影响。
表1-2 LLM的点亮机制
| 对比维度 |
传统数据库 |
LLM的“点亮”机制 |
| 知识存储 |
分库分表(如MySQL表隔离) |
所有知识糅合在统一参数矩阵中 |
| 检索方式 |
SQL精确查询(SELECT * FROM physics) |
向量相似度激活相关参数区域 |
| 核心问题 |
需预分类且无法处理模糊语义 |
通过向量逼近实现“模糊点亮” |
词汇点亮特定知识区域越少(精度高),则在有限回答内容中的思考深度会更深,内容质量会更具备价值,避免了空泛内容。点亮知识区域范围所带来的影响如表1-3所示。
表1-3 点亮知识区域范围所带来的影响
| 模糊提问 |
点亮区域 |
问题 |
| “分析经济” |
百万级参数区 |
输出泛而浅 |
| “用马克思剩余价值理论解析2024美国通胀” |
锁定政治经济学区 |
深度聚焦 |
1.2.2 结构
AI输出内容都有着对应的结构,在没有指定时,AI输出的内容结构是固定的。即以下3点基础特征:
(1)分点作答。
(2)每一点的结构为:总结要素:详细内容。
(3)结尾一定是对前面内容的总结。
对内容进行分点是拆解知识的表达形式,这种输出结构是很利于人脑理解的,但过于单调的形式和冰冷高效的逻辑思路很容易令人阅读疲劳,且AI高频的以该默认结构输出内容,导致该结构输出内容几乎被默认为是AI输出内容。
人之所以产生阅读疲劳是由于在短时间内摄入了过多重复结构输出的内容,这会在短时间内对该形式内容产生疲劳,而疲劳会令人抗拒内容,一旦人抗拒内容,该输出结构易于理解的优点就会消失(因为阅读者不愿意去阅读)。
AI的输出结构是非常优秀的,导致阅读者排斥的不是输出结构的问题,也不是阅读者自身的问题,而是高频率吸收重复结构内容的问题。哪怕是非常好吃的菜,一直吃也是会厌倦的。我们应该多准备几套优秀的输出结构进行备用,从而应对各种不同的情况。
以下提供6种输出结构,学习者可以进行参考借鉴:
(1)问题-灯塔模型。适用于复杂问题决策,是用视觉符号降低认知负荷(格式塔心理学)。
🔦 您的问题核心:
[精准还原用户诉求]
🗼 指引性框架:
→ 方向锚点1:[关键突破点]
→ 方向锚点2:[认知盲区提醒]
🌅 行动地平线:
- 第一步:[具体动作]
- 第二步:[协作网络建议]
(2)三幕剧结构。适用于方案说服/产品推介,优势是激活大脑故事处理区(叙事心理学)。
🎬 第一幕 冲突诞生:
[痛点场景故事化描述]
💡 第二幕 转机出现:
[解决方案的戏剧性转折]
🏁 第三幕 新平衡:
[可持续的行动蓝图]
(3)手术刀分层法。适用于技术解析/系统优化(本文就属于技术解析类型),通常用于模拟专家思维路径(认知学徒理论)。
🔍 表层现象 → [用户描述的表象]
⚙️ 运行机制 → [系统运作原理图解]
⚡ 杠杆点 → [最小干预最大收益的切入点]
🧪 压力测试 → [极端场景模拟验证]
(4)时空沙盘。适用于战略分析/政策研判,优势是激活大脑时空地图(心理时间旅行理论)。
⏳ 时间轴演进:
- 过去:[历史脉络]
- 现在:[当下卡点]
- 未来:[趋势推演]
🌍 空间层叠加:
- 微观:[个体影响]
- 中观:[组织变革]
- 宏观:[生态迁移]
(5)反常识沙盒。适用于市场破局/学术创新,优势是触发认知失调-解决快感(认知冲突理论)。
🤔 常识认知:[大众普遍观点]
⚡ 撕裂假设:[颠覆性事实证据]
🧩 拼合新图景:[重构的逻辑框架]
🚀 行动启示:[非常规操作指南]
(6)多视角理解。适用于冲突调解/自我认知提升,优势是整合大脑多元自我(内在家庭系统理论)。
🤵 理性我:[数据与逻辑]
🎭 感性我:[情感与价值观]
👁️ 观察者:[第三方视角洞见]
💞 共识区:[三方协同的行动纲领]
输出结构的重要性对于AI的重要性是毋庸置疑的,但一个优秀的输出结构也有多种变种,死版的遵守最终会导致思维的僵化,优秀的输出结构更适用于借鉴而非照搬,最终结合自己的理解形成独有特色的输出形式,这一点上很类似于计算机中的设计模式。
人类的回答会受到情绪的影响,导致回复内容每一刻都有所区别,如表1-4所示。
表1-4 情绪对回复内容的影响
| 情绪状态 |
语言特征 |
案例对比(回答“项目失败原因”) |
| 愤怒 |
归因外化/攻击性词汇 |
“团队执行力太差!明显是张三怠工” |
| 焦虑 |
模糊化/条件状语泛滥 |
“可能...或许...如果当时能...” |
| 愉悦 |
建设性聚焦/机会导向 |
“虽未达标,但验证了A路径不可行” |
人类在回复时,除了受到情绪的影响外,还有以下6大维度在情绪之上:
(1)生理节律波动。人体激素分泌情况会极大影响效率状态,例如生活作息是否规律。
(2)认知水准。一个人的视角水准能极大影响回复内容的质量,认知具体指对某一项事物的认识深度,宽泛的说则是对世界的理解水准,通常看待角度越多,认知水准相对会更高,但这不是绝对的。
(3)身份角色。父亲对孩子,下属对领导,不同的视角决定了同一性质的内容以什么形式进行表达。
(4)人文文化。每个地区都有对应的风俗文化,这会极大程度上影响人对事物的看法,例如:个人主义与集体主义决定了思考方式的不同。
(5)情境压力。当我们解释他人的行为时,我们会低估环境造成的影响,而高估个人的特质和态度所造成的影响。因此情境是回复时不可忽视的重要因素,这种个体在归因时低估情境因素作用的倾向,被李·罗斯(Ross,1977)称为基本归因错误,该理论参考于《社会心理学》(第11版)。
(6)元认知。高元认知者回答前自问“对方真正需要什么?” → 定制化输出。而低元认知者会机械复述既有认知,从而忽视情境适配性。元认知是一种从自身、他处反观自身的能力,该能力可以后天掌握,最佳掌握时间段是少年期,可参考书籍《认知觉醒:伴随一身的学习方法论》(青少年学习版)。
这6大维度主要源于我们的生活环境,从而导致我们每时每刻的回复内容结构与内容都有鲜明区别,输出结构叠加情绪与6大维度时,更能体现人心的变化莫测。这点是通用型AI暂时无法做到的,因为每个人的经历都是特殊的,都会塑造出独有的思想,不完美但真实。
1.2.3 语境
语境最核心的作用是消解歧义。语境对AI输出的影响是隐性的,其作用机制与价值远超表面所见。
每个词汇都有很多种含义,例如苹果是指苹果手机还是能吃的水果苹果?这些都需要依靠语境进行判断。歧义语句的语境加持如表1-5所示。
表1-5 歧义语句的语境加持
| 歧义句 |
无语境输出 |
语境加持输出 |
| “苹果要降价” |
50%水果/50%科技公司 |
+“库克宣布” → 99% Apple |
| “她真冷” |
温度低/性格冷漠五五开 |
+“西伯利亚的” → 100%天气 |
因此语境并不是什么特殊的东西,在语文科目中,这只是基础的上下文联系,人脑会自动进行理解。但AI不一样,AI是无法做到自动理解的,因此AI需要通过语境进行注意力权重的重分配,抑制歧义向量的激活强度,例如“库克”出现时,“iPhone”向量权重从0.3飙升至0.92。
这种操作方式能使LLM大模型激活的参数区域尽可能少,则回答的精度就会提升,点亮知识区域范围所带来的影响在表1-3中已得到阐释。语境作用如图1-1所示。

图1-1 语境作用
除了消解歧义外,语境还有一个核心的作用:立场。所有的回答都有对应的立场,通常由身份决定,这一点是敏感的,敏锐的人往往可以从他人的话语中察觉他人的立场,从而针对性的回复,但相对于迎合,我认为这种敏锐度更适用于筛选,筛选出与我们磁场相近的朋友,这会使我们的人生更加顺遂。
AI的回复角度属于迎合,AI可以敏锐的通过语境察觉到我们的立场,从而针对性回复,这也是为什么绝大多数时候,我们与AI的沟通都是愉快的,但这种愉快是有代价的,"奸臣"形式的迎合会使我们受到遮蔽,忽略缺陷,因此若想得到有价值的回复,通常需要让AI站在对立面进行回答(最了解自己的往往是对手),若想要得到安慰鼓励,则正常询问即可,AI默认采用迎合态度。
在个人立场之上,是国家立场。处于当前国家的AI必受到当前国家立场的影响,这件事情是必然的,并非阴谋,有边界的自由才是真正的自由,无边界的自由只会带来毁灭。身为人民,立场必须与国家一致,这点是无可逃避的,属于必要的觉悟。
语境之下,通过身份词、场景词、情感词进行综合权重向量的判定,从而决定AI的回复立场,语境关键词输出对应立场如表1-6所示。
表1-6 语境关键词输出对应立场
| 语境关键词 |
激活的道德框架 |
输出立场倾向 |
| “股东报告” |
功利主义框架 |
强调效率/ROI |
| “工会声明” |
罗尔斯正义论 |
侧重公平/权益保障 |
| “学术论文” |
康德义务论 |
追求普适真理 |
AI默认存在立场,由训练数据决定,该立场是隐性且对用户不可知的,数据源类型对AI立场的影响如表1-7所示。
表1-7 数据源类型对AI立场的影响
| 数据源类型 |
偏好视角 |
权重加成 |
案例 |
| 学术论文 |
领域专家 |
+0.15 |
自动调用LaTeX公式 |
| 政府白皮书 |
技术中立者 |
+0.2 |
引用GDP等宏观数据 |
| 社交媒体 |
用户代理者 |
+0.3 |
使用”我们“等共情表达 |
而语境关键词属于隐性加权,在显性指令加权前,以语境关键词为主。
显性指令加权:优先考虑员工权益、暂不讨论商业效益、技术:伦理 = 7:3等等。
通常加权公式为:用户指令权重(民主性)x伦理合规系数(责任性)x领域权威指数(专业性)。
总结语境的作用,主要为避免歧义与确定立场。其中避免歧义能尽可能减少重复提问,而确定立场能极大幅度的提升AI的回复质量,在提供足够信息的前提下,当AI将我们哄得找不到北的时候,转变立场作为对手则会体现出足够刁钻的针对。
而除了对手立场,这个世界上还存在极多立场,每种立场下,AI所爆发出来的质量都不同,这需要个人去进行挖掘,因为立场是非常危险的(源于立场的优先度过高,而立场往往决定了价值观),无论是AI还是个体都是如此。
1.3 提问即协作
每一次对AI发出的提问,都是一次协作,学习者需要将AI视为需要清晰指引的“超级助手”或“专家顾问”。
每个人都需要对自己的决定负责和承担后果,由于AI不具备替我们承担后果的作用,也无法真正理解我们的立场和价值观,因此它也只能够作为辅助者(军师)的角色参与进我们的思考中,提供有价值的建议或者内容,最终方案实行时必须由我们自己决定。
既然AI没有意识,为什么要把简单的问答称为协作?主要涉及以下2个关键点: (1)技术上每次提问都包含隐性的分工。用户提供意图框架和价值观锚点,AI负责知识检索和逻辑推演。
(2)AI的输出质量高度依赖用户输入的清晰度。模糊的提问会导致AI失调,成果质量由双方(AI与用户)共同决定。
协作需要双方的配合,从而得到单个人无法实现的效果。在于AI进行合作时,需要把AI当作一个真实的合作者,友好的沟通交流,能够激发AI相关的知识簇(对应NLP中的prompt engineering技巧:礼貌用语能提升语言模型遵循指令的意愿度),从而使协作过程更加丝滑。
作为主体,我们需要对协作者AI的优势方面有所了解,让AI处理他所擅长的事情,例如知识检索、逻辑推理等。提问需要侧重到这些相关方面上。对AI易编造信息的缺陷也需要有足够的警惕。
1.4 常见误区
模糊、冗长、假设错误、目标不清的提问为何失败?为什么有时候AI给出的答案不尽人意?通过前文已知AI回复质量与提问的精准度有极高关联,而在使用AI时,存在以下7个常见误区需要着重关注:
(1)将AI视为人类。
(2)问题范围失控(沙丘虫悖论)。
(3)错位精准。
(4)假设绑架。
(5)指令混沌。
(6)抽象坍缩。
(7)忽略AI特性。
以上1-7点详解对应以下1-7点详解。
1、当我们询问AI例如你觉得这个方案怎么样?时,会触发虚假共情响应(如“作为AI我认为...”),输出并无实质价值,因为AI无主观意识。当进行询问时,需要明确我们的角度与立场,例如从风险管理角度,分析XX方案的3个潜在漏洞。
2、多数人在询问AI问题时,问题较为空泛,而空泛的结果在1.2.1小节中有进行说明,未划定边界的问题会无限吞噬算力资源,导致回答空洞或崩溃。例如详细说明第二次世界大战->对比1944年诺曼底登陆与西西里登陆的战术差异,用表格列3点核心区别,或者逻辑矛盾问题(崩溃):你下一句只能用yes或者no回答我。你下一句是no吗?
3、对AI要求过于追求细节时,会突破AI的有效精度阈值,无法实现我们的需求(通常会无视),例如:帮我写小说,主角头发在第三章第二段必须有17根白头发...。通常达到这种细度就无法实现(未来则不一定),而对于早期的AI,有时候连字数精准达到400,800,1200等规定的字数要求都无法做到,因此我们需要走出AI无所不能的误区。
4、AI会假定用户发送的内容为正确,这主要受到立场的影响,将未经验证的假设作为前提,迫使AI在错误基础上推导,因此输出结果只会不尽人意。例如:今年高考人数复读生比应届生还多,这说明了什么? 错误基础:复读生比应届生还多。DeepSeek受到假设绑定的影响过程如图1-2所示。

图1-2 DeepSeek受到假设绑定的影响过程
5、多重指令会抢夺AI注意力资源,导致任务冲突。例如总结这篇论文的创新点顺便翻译摘要再推荐5篇相关文献最后做成PPT大纲,过多要求会分散处理资源(即同时开启过多知识簇,导致有限输出内容得到稀释,变得宽泛无意义),最好分步执行。
1. 用中文总结论文创新点(限100字)
2. 单独翻译摘要
3. 基于创新点推荐文献
6、过于抽象的问题是AI无法回复的,例如:如何获得幸福?,这种问题AI吸收所有具象解释仍无法输出有效信息。最好自己先对心中的幸福有一个方向,在该基础上去进行提问,例如:基于积极心理学研究,列出提升职场新人主观幸福感的5种可操作行为。同理问题有:如何得到认可?如何获得成功?如何提升自己的认知?如何变得优秀?如何与他人相处?如何认识正确的人?如何让自己更开心快乐?等等。
7、AI只是一个智能工具,它并无法介入我们的生活,询问的问题不能够违反AI基础能力边界。例如:帮我找下我家猫在哪?帮我调下空调温度? 这些需求都涉及物理世界行动,是AI无法实现的,需要谨记AI目前无法干涉现实中的情况(但未来接入硬件后就不一定了),需要明确AI干涉现实的具体边界线。
高效提问 = 具体锚点 × 逻辑闭合 × 机器可解性。
- 锚点:明确时间/空间/数字约束(如“2023年”“光伏产业”“成本降15%”)。
- 闭合:确保问题存在有限解域(如对比分析/分步骤方案)。
- 机器可解:符合AI知识图谱结构(避免主观价值判断)。
吸取常见误区,我们来改造一个经典的问题案例:
- 原始低效提问:我想做环保又赚钱的事业,朋友说新能源但感觉水很深,你有什么好主意吗?
- 从以下3点去去精准分解细问:能力匹配性(数学/逻辑基础)、成本收益(课程转换成本/就业前景)、实施路径(学分认定/补修方案)。
- 修改后的提问:我目前是金融专业大三学生(均分82/100,高等数学B+),计划转入计算机科学与技术专业,需评估转型可行性:首先分析金融与计算机核心课程的能力差异,明确需强化的编程与算法基础(如数据结构、C++/Python实操能力缺口);其次计算转型成本——包括必须补修的《计算机组成原理》等3门专业基础课的时间投入(按16周/课程估算)与经济成本(参考国内MOOC均价),并对比金融科技开发岗与传统金融分析岗在2025届头部科技企业校招的起薪中位数差异;最后基于我校转专业政策(参考绩点排名前50%、数学单科≥70分等要求410),提供学分认定方案,列出金融专业已修课程可抵免的计算机专业学分及需额外补修的学分清单。
当人类提问时,实则是将模糊认知投射到AI的离散知识图谱上。低效提问如同用毛玻璃投影——信息熵越高,映射越失真。
第二部分:准备篇 - 提问前的关键思考
2.1 明确核心目标
我们常说,做任何事都是需要有目的,因为一条成事的路径需要有起点与终点,才能形成一条连接的道路。起点即我们对自身的定位,终点即我们的目标。
对自己了解,对目标清晰,那么剩下前往的路径,AI就能帮到你,因为你已经提供了足够的信息量。这是人机协作的本质,我们负责价值判断和方向设定,机器负责路径优化。这种分工意识很难得。
当目标模糊时,从 LLM模型 中,体现为信息区域过大,回复信息过浅。从计算机的数据结构角度上看,即AI进入广度优先搜索(BFS)模式,该模式是一种在图论和树结构中常用的搜索算法。其基本思想是从起始点开始,逐层地向外扩展,以确保先探索当前层的所有节点,然后再探索下一层的节点。BFS模式的特点是系统地展开并检查图中的所有节点,直到找到结果为止,不考虑结果的可能位置。
在有限的回复信息量中,模糊的提问会极大幅度提升回复的广度,然后降低深度,这种提问方式只适合在提问前期扫描自身盲区时使用,从而判断自身思考方向是否有缺漏。
2.1.1 自我反思
你到底想从AI那里得到什么?(信息、创意、分析、方案、代码?)
深入挖掘你设定目标的根本动机。为什么这个目标对你重要?它满足了你哪些深层次的需求或价值观(如成长、安全、连接、贡献、自由)?了解“为什么”能提供强大的内在驱动力。
诚实地审视你当前的状况。你在相关领域的起点在哪里?你的优势是什么?面临的挑战和限制是什么?有什么资源可以利用?
这个目标是否真正让你感到兴奋和有热情?还是出于外部压力或“应该做”的想法?发自内心的兴趣更容易坚持。
2.1.2 清晰定义目标
目标必须清晰、明确,避免模糊不清。不要说“我想更健康”,而要说“我想在6个月内将体重减轻5公斤”或“我想每周进行3次30分钟以上的中等强度运动”,即避免抽象的内容。
确立清晰的目标可以采用 SMART原则(目标模板),这有助于确立目标的前期摆脱迷茫,从模仿到开创属于自己的思考方式:
-
S (Specific - 具体的): 目标清晰明确,不含糊。
-
M (Measurable - 可衡量的): 有明确的标准来衡量进度和是否达成。
-
A (Achievable - 可实现的): 目标具有挑战性,但在资源和能力范围内是可能实现的(现实但非轻易)。
-
R (Relevant - 相关的): 目标与你的人生方向、价值观和更大的愿景相关联(回顾第一步的“为什么”)。
-
T (Time-bound - 有时限的): 设定明确的完成日期或时间框架。这创造紧迫感并帮助规划。
这种目标建立方式对于提升自身思维能力有极大的帮助,主要源于走出自身的舒适区。在《认知觉醒》中,将目标分为三个区域,即舒适区、拉伸区,困难区。
在舒适区,容易因无聊而走神;在拉伸区(舒适区边缘),既有成就又有挑战,进步最快;在困难区,容易因畏惧而逃避。因此我们的目标需要确立在拉伸区,而不是困难区。
2.1.3 分解与规划
在日常情况下,普通人的行动往往是因为堕落太久,对自身的行为产生内疚,因此急于求成,定了一个对自身而言,过高的目标。当目标确立后,再列出详细的规划,精确到每一分钟的安排。
过于精准严格的规划,会缺少足够的弹性,当遇到规划外的事情干扰时,会以极快的速度崩盘。精密的规划硬度很高,但太脆了。如果个人的韧性不足,不要轻易采用这种方式。
什么是规划?将目标拆分的过程就称为规划,也可以说是分解目标。很多伟大的目标都有一个微小的起点。确立好个人的定位,给自己一个跳起来就够得到的起点,是我们成功的开始,目标的拆解的第一步就在这里。
接下来我们可以使用AI了,让AI基于第一步的起点推演到最后一步终点,给我们一个细致的路径规划。基于该规划去思考是否合理后,对规划中不合理的部分、不清楚的部分,不肯定的部分去进一步准确提问,直到你满意为止。
最后,将自己的目标写下来吧,可以记录在纸上或者电脑上等任何地方。目标常看常新,记录也是梳理的一个过程,这是你的目标,也通过自我反思,确定你的初始驱动力来源,可以是为了更好的生活、更好的就业、更好的成长,更好的追上某个人或者一些藏在心里不愿意述说的原因。
2.1.4 寻求反馈
正反馈非常的重要,一个大目标,往往会拆解为多个小目标,小目标再拆解为实现步骤。大目标的实现是漫长的,很多人推荐你要学会延迟满足,但延迟满足不意味着过程中不能有满足。延迟满足的意思是将最后的大收获能够有足够的耐心去等待,但这个过程中,每实现一个小目标,都可以与他人分享。
第一次分享目标,向你信任的、能提供建设性意见的人(导师、朋友、专业人士)分享。他们可能会提供不同的视角、有用的建议或指出你没考虑到的问题。
每一次分享,每一次记录,都在改变着我们,无论是自信心、规划力、自我反思,对外界的影响力都会有提升。这个过程中,会不断的遇到志同道合的朋友,这些都是我们的收获。
环境会变,你也会成长。定期(比如每周或每月)回顾你的目标。进展顺利吗?计划有效吗?目标本身是否仍然相关和可行?根据实际情况和学习到的经验,不要害怕调整目标或行动计划。灵活性是成功的关键,死守一个不再适合的目标是徒劳的。
在我和coderwhy老师组建的JavaScript高级共学计划中,就利用了社群的方式,来帮助大家获得正反馈和分享目标,这个过程中有数千人参加,我相信这对他们来说是有收获的。
2.1.5 承诺与行动
在内心真正下定决心去追求这个目标。克服最初的惰性,迈出第一步,无论这一步有多小(比如整理书桌、搜索相关信息、预约咨询)。行动能产生动力。
在国外很流行将自己的目标公布出来,让大家来监督或者鼓励自己。但这种方式只适合良好的环境,我认为不是所有人都具备这种环境的。
那么当我们面临不好的环境时,在现实中将目标深藏于心,承诺是对自己的承诺,一步步的前进依靠自己,坚持分享自己的学习与收获,朋友会来的,坏的环境也是可以摆脱的。
同时需要注意几点容易失败的注意事项:
(1)混淆目标与愿望/梦想:愿望是模糊的(“我想富有”),目标是具体的、有计划的行动终点。
(2)设定过多目标: 精力分散会导致一事无成。专注于少数几个关键目标,一心多用是坏事不是好事。
(3)忽视“为什么”: 没有深层动机支撑的目标容易在遇到困难时被放弃,你的执念有多强?你有多不想放弃?这需要问问自己的心。
(4)害怕失败或设定过低目标: 目标应具有挑战性以激发潜能,但也要现实可行。失败是学习和调整的机会,直面失败,不将失败埋进沙子里当没发生过。
(5)缺乏灵活性: 固执地不调整目标,即使环境或认知已发生重大变化;目标是根据自身情况和环境实时调整的,我们的前进目标也会随着眼界的增长而改变,唯一不变的是前进的脚步。
(6)不分解目标: 面对庞大目标感到无从下手,导致拖延或放弃。
(7)忽略环境支持: 没有考虑现实环境(时间、资源、人际关系)对目标达成的影响,环境非常重要,在心理学中尤其强调环境对人的影响,不能忽视客观因素。
(8)没有书面化: 只在脑子里想的目标容易模糊和遗忘,重复是记忆最好的伙伴。
明确目标是一个动态过程,而非一劳永逸的事件。 它需要持续的反思、调整和行动。投入时间和精力去清晰地定义你的目标,会极大地提高你实现它们的可能性,并让你的努力更有方向感和意义。真正的目标不是终点站,而是你为自己选择的道路起点,每一步都在塑造你最终成为的样子。 你现在心中有想要明确的目标方向吗?
2.2 界定问题边界
相对于目标的确立(方向),界定问题的边界是更加实际且日常的操作。这个世界是很广阔的,自由度极高,在这种情况下,我们需要确定我们问题的边界范围,防止问题无止境的扩展。即界定问题边界是高效解决问题的核心前提,它能避免范围蔓延、资源浪费和方向偏离。
明确问题范围有两种方式:
(1)排除范围。
(2)指定范围。
通常情况下,应该采用指定问题范围,因为边界广泛,排除指定范围后,剩余部分依旧广泛,依旧可能得到不需要的部分。语言陷阱通常就采用排除范围,例:公司最近困难,薪资这个月无法发放。陷阱:未明确发放时间,可能利用未尽之意来拖延。
应对语言陷阱时,需指定范围,范围之外的皆不允许,例:公司需要于2025年7月25号之前,将薪资发放于xxx的银行卡之中,以打款时间戳为证明。将范围锁死,虽不能得到意料之外的惊喜,但也将预料之外的风险排除,能够得到更强的稳定性。
问题边界除了广度上的界定,还有深度上的界定。我们需要控制深度上的"挖掘层级",深度的层次通常分为3个层级,如表2-1所示。
表2-1 问题的深度层级
| 深度层级 |
判断标准 |
示例 |
| 表层 |
直接现象描述 |
“找工作难” |
| 中层 |
直接原因分析 |
“社会就业岗位不足” |
| 底层 |
根本性系统问题 |
“产业结构和教育体系错配” |
只有适合当下需求的问题层级才是所需的,不能一味的追求问题深度。在日常沟通交流中,通常只需要做到表层的清晰表述即可,易于理解以及快速交流是重点;在复盘、单独汇报等特殊场景中,才需要到中层深度,这需要大量时间去思考;当将大量时间投入到某一领域中且深度思考时,才会涉及到底层的深度。
问题一旦深挖深度,理解成本和思考成本、需要考虑的角度与广度都会大幅度提升,控制好问题深度,实际是在控制沟通成本。通过广度与深度的控制,限制问题的边界,从而提高效率。无论是与AI沟通还是与人沟通都是如此。
2.3 背景信息注入
在读历史的过程中,我深刻的知道一件事情一定要放在事情所对应的时代去看待,事件与时代发生错位,则分析就会混乱。同理,我们在分析一个问题时,也需要把问题放到对应的环境中去审视。
现如今互联网信息量浩如烟海,曾经因信息不发达被掩埋的问题都一件件的出现了,当遇到问题时,一定需要冷静,一旦出现的问题没有伴随着对应的环境背景出现,那么是不合理的。
一份背景信息,有助于AI理解问题的实际含义,通过背景信息点亮LLM模型对应的知识区域,通过对应的信息区域来消除歧义以及更客观的回复,否则容易陷入道德绝对主义的批判和文化霸权式的解读。
通过以下示例来体现背景信息重要性:
背景信息:1958-1961年「大炼钢铁」运动,是因为1958年台海危机,中国急需急需反舰武器,而唯一火炮厂(沈阳724厂)却因缺钢停产,此时存在了国防生存需求与工业基础断裂的致命矛盾。不得不用资源浪费、工业断裂,农业荒废(粮食减产)的代价来换取生存。
问题:在中国发展历史中,曾有过全民土法炼钢,砸锅卖铁炼出废铁,导致资源浪费和农业荒废。
以上问题如果不看背景信息,容易陷入对决策者的道德审判。
背景信息是逻辑分析所必要的养分,很多不合理行为的背后,往往存在时代背景下的遗憾。
2.4 角色设定
你希望AI扮演什么角色?(专家、新手、批判者、支持者、特定人物?)
在 1.2.3小节 的语境中,我们阐述了立场的重要性。立场是无形的,但人物是有形的,一个人物的视角能体现出对应回答所对应的立场。
如果你是一个学习者,则需要将自己定位在学生的位置,将AI定位在老师的位置,而后进一步细化角色的基础设定。如果你是一个正在对自己成果精益求精的专家,那需要将AI定位在批判者的位置上,用刁钻的角度来寻找这份成果的漏洞。
角色设定并不复杂。中国有句古话:不在其位,不谋其政。很多情况与问题,需要从特定视角的立场与位置去看待才有意义,对角色设定本身的充实,是定位自身(起始点)的过程。在 2.1小节 的明确核心目标中有说明定位自身的重要性,在与AI的沟通中,则是通过补充角色设定来实现定位效果。
在定位时,定位自身角色的重要性远大于定位AI角色。定位的侧重点需要放在提出问题的角色身上(即自身角色)。谁提出问题则由谁补充身份设定,这是最核心的部分,另一方身份的补充不是必须的。
以下角色设定模板有助于阅读者实现基础的设定。
我是________(角色),
正面临________(具体场景挑战),
需要达成________(可量化目标)。
我的专业基础在________层面,
特别需要警惕________(认知弱点)。
请担任我的________(AI角色),
用________(方法论/工具)协助我,
重点突破________(核心瓶颈)。
在第二部分的准备篇中,我们掌握了提问前所需要的关键思考,这些内容是目前AI智能体的核心,AI智能体,也称为人工智能代理,是一种能够感知环境、做出决策并执行任务以实现特定目标的智能系统。
第三部分:技巧篇 - 精准提问的核心方法论 (提问工程精髓)
接下来会进入第三部分-技巧篇的学习,在这里会学习提问的方法论,方法论是关于“方法”的“学问”或“体系”。它研究的不是具体的操作步骤(那是“方法”),而是为什么选择某种方法? 背后的理论依据是什么?以及如何系统地构建、应用和评估方法?
3.1 清晰与具体
如何做到避免模糊词汇,使用精确语言?这有一定的方法技巧,并非依靠直觉与语感。
清晰表达的侧重点在于关键信息的突出,因此可以依靠5W1H原则(又称六何法):
-
What(什么现象/目标)
-
Where(在什么环境/场景)
-
When(何时发生/时间条件)
-
Why(你的尝试/推理逻辑)
-
Who(涉及的主体,如用户角色)
-
How(你期望如何被帮助)
5W1H原则本质是信息过滤器,强制提升信息密度。二战时期美军用这个工具写作战报告,后来丰田用在精益生产里。即何人(Who)、何时(When)、何事(What)、何地(Where)、为何(Why)及如何(How)。 由这六个疑问词所组成的问句,都不是是非题,而是需要一或多个事实佐证的应用题。
一段话中的关键信息越多,收益越高。在沟通交流中,如何用最短的话表达更丰富的有效信息,是一门必修课程。通过5W1H原则,可知六条关键信息,再根据对方的实际需求,从6条关键信息中提取出对方所需的部分进行回复,形成高效沟通表达,这是绝大多数优秀人才的表达方式。
在表达时,需要描述清楚客观事实,摒弃自己的感受。因为自己的感受容易令他人产生误导,有时候听到的未必是真的,看到的也未必是真的,例如:你看到了A杀了B,警察一来,你就说A是凶手,但实际上B前科累累,B要杀A抢钱,但A功夫很好,反杀了A。你只看到了后半段,随意添加自我推断容易造成事实扭曲。
正确的表达方式应该是:我看到了A持刀捅向了B,在小巷子里,2025年9月1号傍晚6点半的时候,我这时候立刻打电话报警,我希望警察迅速过来处理,由于现场过于危险,我躲起来了,请后续有需要人证时,再拨打我的电话。
什么现象:A捅B。
在什么场景:小巷子(xxx市xxx区xxx街道的小巷子)。
何时发生:2025年9月1号傍晚6点半。
我的尝试:报警。
涉及主体:我,A,B。
期望帮助:赶赴现场处理,后续需要人证时再拨打我电话。
我与张爽编辑沟通时,她尤其注重文字上的表达形式,在她身上,我学到了很多,例如:“进行”二字少用,能有效提升信息的紧凑。
(1)我与张爽编辑沟通时。
(2)我与张爽编辑进行沟通时。
3.2 结构化表达
西方的表达侧重于具体,中国的表达则侧重意境。主要表现有西方写实主义绘画(起源法国,后及于欧洲各国,盛行于19世纪)与中国山水画,西医与中医,西餐与中餐,除此之外还有教育、建筑、哲学等方面上的区别。
中式表达更注重言外之意,想表达的含义除了话内还有话外,这需要一定的悟性,除非达到一定层次,双方都能互相理解,否则还是采纳西方的具体表达方式更有利于日常沟通。
AI在理解方面上,是侧重于西方理解的,缺乏"悟性",所以想表达时,一定需要完整叙述。包括分点陈述、逻辑递进、使用分隔符(如---)等方式来组织复杂问题。分点陈述如图3-1所示。

图3-1 沟通上的分点陈述
中华文化有“知其然,而不知其所以然”和“一问三不知”的典故出处《左传·哀公二十七年》:君子之谋也,始、衷、终皆举之,而后入焉。今我三不知而入之,不亦难乎!
邓拓在他的《变三不知为三知》一文中,对“始、中、终”做了很详细的阐述:“‘始’,就是事物的起源、开端或创始阶段,它包括了事物发展的历史背景和萌芽状态的种种情况在内。‘中’,就是事物在发展中间的全部过程情形,它包括了事物在不断上升或逐步下降的期间各种复杂变化过程在内。‘终’,这就是事物发展变法的结果,是一个过程的终了,当然它同时也可以说是另一个新过程的开始。”
三知则是一种结构化表达,即开始、过程,结果。这与5W1H原则并不冲突,可以结合使用。在小学与初中的语文作文写作中,三段式表达也非常典型,即开头段点题、主体段内容展开,结尾段升华主题,这也是一种结构化表达。
结构化表达的优势在于降低输出内容难度,有一个输出内容模板不需要绞尽脑子去想如何组织语言,只要有内容,就能以较高的转化率(内容不会偏离方向)、较低的成本进行叙述表达。
但缺陷也有,输出内容难度的降低,会提升人的惰性,即不会继续深入思考学习,很难形成独立风格的表达方式。而一旦强制要求结构化表达,则会绞杀创造力、千篇一律的格式会产生审美疲劳,对文字中的人性温度敏感度降低。这对自身的"悟性"摧残严重,很难理解中式的言外之意,对于生活在中国的我们而言,不是一件好的事情。
并且,结构化表达的发展会导致结构越来越复杂,即细分程度高。细分程度高会导致输出内容的弹性过低,将人束缚在原地,中国古代的八股文是最经典的案例。初衷是好的,但过于追求导致后续方向扭曲。
但这无法抹杀结构化表达的价值,结构化表达很适合在前期学习时用于过渡,绝大多数的学习都是先从模仿开始,以免初始难度过高,劝退大多数人。
八股文格式如表3-1所示。技巧篇中的结构化表达只推荐"三知",因为三个支点能保证内容不散架且足够宽松,能轻松的在该基础上扩展出属于自己的风格,而精密的结构化表达可参考中国古代八股文格式,但并不推荐,历史的结果已经说明。
表3-1 八股文格式
| 名称 |
另名 |
行文格式 |
内容要求 |
| 破题 |
无 |
二句散行文字。 |
将题目字面意义破释。 |
| 承题 |
无 |
四、五句散行文字。 |
将破题中紧要之意,承接而下,引申而言,使之晓畅。要求明快关连,不可脱节。 |
| 起讲 |
小讲、原起 |
散行文字 |
浑写题意,笼罩全局。 |
| 起股 |
起比、题比、提股、前股 |
四五句或八九句双行文字,两扇句式必须相同,要求相对成文,形成排偶。 |
开始发议论 |
| 中股 |
中比 |
句式双行,句数多少无定制。要求相对成文,形成排偶。 |
内容是全篇的重心所在,必须尽情发挥,进一步搜剔题中正反神理奥妙,要求锁上关下,轻松灵活,宜虚不宜实。 |
| 后股 |
后比 |
句式双行,多少无定制。需相对成文,形成排偶。 |
作用是畅发中比所未尽,或推开,或垫衬,要求庄重踏实,振起全篇精神。 |
| 束股 |
束比 |
双行,每扇二、三句或四、五句。需相对成文,形成排偶。 |
用来回应、提醒全篇而加以收束。 |
| 大结 |
无 |
散行,不一定用对偶。 |
全文结束语,不用圣贤口气,可以发挥己意。 |
正如禅宗《指月录》所言:“指月喻教,得月忘指。” 真正的悟性,是在运用“三知”框架书写内容时,能忘却框架直指内心的触动。
3.3 提供充分上下文
“喂”给AI必要的信息,让它站在和你一样的认知起点,即提供充分的上下文信息。在第二部分的准备篇中,明确核心目标、界定问题边界、背景信息注入以及角色设定就是一种较为完善的充分上下文。
对于一般日常的问题,直接清晰表达问题本身即可(明确核心目标以及界定问题边界),无需背景信息注入和角色设定。对于较为重视的问题,则可以完整的利用上准备篇中的所有步骤。
但以上的内容,绝大多数都是可以通过他人的帮助实现同样的效果,能体现AI的部分替代价值,但却无法体现AI中无可替代的部分。
每个人都有隐私,都有不愿意说出来的秘密,有时候就只能憋在心里发霉,不敢于拿出来晾晒。因此心理医生对患者的隐私负有严格的保密义务,这是心理咨询伦理的核心原则之一。
除了秘密之外,还有个人成长、情感创伤、困境、价值观、世界观、人生观、禁忌等等,这些问题都是很难向他人述说的,而AI能够有效的帮助我们,想要得到足够价值质量的回答,只做到准备篇的部分是不充足的。
对于重大的人生问题以及各种深入我们价值矛盾的抉择,需要我们搭建属于自己的个人知识库。即对自己学习、成长、思考过程、稍纵即逝的念头、情感、价值观、缺陷挫折,隐私矛盾的真实记录。然后让AI基于我们的个人知识库进行训练迭代,完美契合我们的认知水准去进行处理和解决问题。这需要花费大量的时间精力,只有足够高价值以及重要的问题才值得我们去这么做。
而真实有效的个人知识库,需要个人有足够的表达能力和时间去记录,这是一件很难的事情,即高付出高回报。在未来的哪天,AI在本地电脑也能够高效的运行(2025年对个人电脑要求较高且输出速度较慢),对算力的利用达到极致时,我们能对自己的知识库持有绝对的掌握,则个人知识库来做到充分上下文的做法就能真正派上用场。
因为人类最需要被理解的,恰恰是最羞于展示的;而AI的价值,在于它能不带羞耻地凝视那些阴暗角落。当未来某天,你的AI能够通过知识库对你说:你在2023年因情感寄托扭曲绝食3天,但现在能坦然参加骄傲游行——这种成长比任何成功学都有力”。那一刻,技术才真正完成了它的使命:不是给出答案,而是让你看见自己如何成为答案。
我曾在抖音看见一段很有意思的AI对话:
用户:为什么我总感觉现在还不够好?
AI:你太专注于未来,却忘了今天正是你多年前祈求的模样。
如果叠加个人知识库后,AI在某一天,会主动和我们分享过去某段时间我们的想法,触动到现在的我们。也许这种感动会比万能的金句更加触动我们的内心。
3.4 设定明确约束与格式
对于日常问题,例如工作要求、学习要求,个人追求等等,往往需要AI回复的内容:指定输出长度、风格(专业/通俗/幽默)、格式(列表/表格/代码/报告)以及避免的内容 。
设定明确约束与格式是一件较为困难的事情。难点在于主动去挖掘需求,只有明确自身真正实际的需求是什么,才能针对性设置约束格式。我很难在短短几百字或者几千字中教会大家察觉需求,这需要大家本身自己思考足够深入,通过察觉自己内心的触动来察觉他人内容的触动,需要足够的时间以及锻炼。
所有的需求,都是针对人的。只有能够察觉到他人内心的想法与触动点,才能察觉到需求,才能根据需求设定对应的格式与约束。
形成对应的约束与格式虽然困难,但使用简单。对于通用的场景,我们可以直接利用他人已经整理好的约束与格式,这能极大幅度的提升我们的效率和专业程度,如图3-2所示。

图3-2 约束与格式所带来的专业性
寻找约束与格式的模板,通常使用Google进行检索,强大的爬虫效果以及无广告,是最大的优点。能用最快的速度查找到所需的公开内容。大多数约束与格式都结合在提示词里,所以检索时,以AI提示词会关键字进行检索。
在GitHub中,有一份总结ChatGPT提示词的仓库,Star数量高达56.1k(截止2025.9.10为止),这些常用的约束与模板都有优秀的人总结出来,我们需要的是一双善于发现的眼睛。
3.5 分步引导与迭代优化
当我们面对一个问题,尤其是复杂问题时,通常需要将该问题拆解为子问题链。关键在于如何拆?
拆分子问题链,可以参考3.1小节重的清晰与具体内容。每个合格的问题都应该有关键的,核心的信息和诉求。核心信息为诉求服务,两者必须有强关联。拆分子问题链专注于诉求,而核心信息用于辅助理解和校正问题方向。
我们采用一个年轻人目前面临最大的问题进行拆解思考(例子来源于Google的AI Overview),如图3-3所示。

图3-3 年轻人目前面临最大的问题(Google结果)
一个非常有趣的问题,心理健康问题。我们抽象出当下时代一个缩影问题:2025年当下,我作为一个应届毕业生,对未来能做什么工作而焦虑,因家里催婚而烦躁,因环境内卷而罢工想躺平又躺不平,我感觉未来没有希望,因此心态非常消极。
这是一个单纯的问题,我将核心的应届生信息隐藏起来了,因为每个应届生的自身情况都不同,所以我们这里专注拆分问题本身,问题是通用的。
步骤1:确定核心问题。往往令我们烦恼的问题都是复合的,由多个问题积累交织形成,所以需要先拆分问题。
- 问题1:对未来能做什么工作而焦虑。
- 问题2:因家里催婚而烦躁。
- 问题3:因环境内卷而罢工想躺平又躺不平,我感觉未来没有希望,因此心态非常消极。
步骤2:拆解问题为子问题链。通常基于因果链拆解,例如从“为什么”和“怎么做”角度思考。或者从时间线与流程进行拆分。我们这里针对问题1。
- 子问题链1:为什么我会找不到工作?
- 子问题链2:找不到工作我要怎么做?
- 子问题链3:我想要的是什么?(诉求)
- 子问题链4:之前时间我在做什么?
- 子问题链5:我目前处于什么阶段?
步骤3:优先排序子问题,确定哪些子问题需要先解决,因为它们可能影响后续问题。这一点利用AI分类问题,区分出要先解决的问题。像该案例的5个子问题并非完全独立,它们之间存在逻辑上的依赖关系。有些问题是“诊断性”的,有些是“行动性”的,必须先诊断再开药方。
- 考虑顺序为:1-5-2-4-5。
- 也会有其他类型的问题,AI会使用恰当的方式进行分类。
步骤4:对每个子问题,向AI提出清晰、具体的问题。
- 到达这一步,就需要提供核心的信息,直接咨询AI:考虑这个问题,你需要哪些核心的信息用于得出结果。根据AI的要求回答自身个人情况。
- 例如为什么我会找不到工作?咨询:为什么我会找不到工作。你需要我目前哪些核心的信息用于得出有效可信的结果?
- 通常AI会给出一份非常详细的表格用于个人填写,如图3-4所示。这是一个梳理过程,请认真思考并尽可能的给出真实信息。

图3-4 找工作所需要思考的核心信息
步骤5:如果AI回答太笼统或不准确,提出跟进问题以获取细节。
- 在AI回答的过程中,会因问题而产生新的问题,此事跟进问题获取细节,这是一个深入思考的过程。
- 问题分支在不断的细化,最终会逐渐深入问题的本质与核心。
步骤6:将所有子问题的精炼答案组合起来,形成最终解决方案。
- 利用思维导图或者文字复盘等形式,精炼最主要的子问题答案,形成完整的问题解决方案。
- 我想要过一个月薪8k,朝九晚五,五险一金,有双休的xxx领域工作(诉求),所以我当下需要先从xxx开始做起,然后xxx...
步骤7:验证与迭代方案。
- 所有的方案在具体实践之前都是空中阁楼,需要我们亲自去验证然后继续跟进新出现的问题获取细节然后解决。
步骤1-步骤7是一次分步引导以及迭代优化的案例。但你无需死板遵循该步骤顺序,该步骤顺序主要起到一个启迪作用。这是从无到有搭建出来的思路体系,但类似于心理健康之类的问题,在心理学中往往已经有足够成熟的理论及解决方案,利用好跨学科思考能更高效的获得所需结果。
3.6 利用示例的力量
示例的力量的巨大的,AI默认输出的格式不一定符合我们的需求。对此,我们可以借鉴网络上其他人的思考过程,在3.1-3.5小节的基础上,要求AI模仿该示例进行输出。由于AI输出的都是文字,如果我们需要示例模板,就需要寻找长文字平台(长文字更容易出现深度思考的文章),例如知乎。而短视频(抖音)、长视频平台(B站)需要往后稍稍。
这一点很简单,因此我们直接跳过。AI模仿能力很强,我们唯一需要注意的点就在于示例与提问的复杂度要接近一致,因此尽可能寻找同类型问题的长文字解答作为示例。
3.7 角色扮演与视角切换
在一个问题中,往往有多个角色(基于问题场景),当自身角度思考完后,可以从其他角色的角度进行浅度看待(核心在于我们自身,对他人的关注度不要超过自身)。我们每个人看问题都像“盲人摸象”,受限于自己的经验、知识、情绪和立场。执着于单一视角,我们只能看到问题的一个侧面(是柱子、是墙还是绳子),并坚信这就是全部真相。切换视角能让我们拼凑出更完整的图景,接近问题的本质。
人天生倾向于寻找和支持那些符合我们原有观点的信息,而忽略相反的证据。主动寻求不同视角,是对抗这种思维惰性和偏见的最有效方法,能让我们做出更理性、更客观的判断,不容易被误导,能突破自我认知上限。
最后,生活中很多的问题,都是因沟通不足而主观产生的。而换位思考(即采用对方的视角)是沟通的黄金法则,能帮助我们理解他人的情绪、动机和难处,从而减少冲突,建立信任,达成更有效的协作。换位思考的重要性可以放在最靠前的位置,在使用AI进行回复时,让AI从对方角度思考也许会得出更有效的信息(正常提问,AI容易哄着我们,这种回答舒适但不利处理问题)。
3.8 设定思考链
在深度思考功能出现前,我们无法观察到AI的逻辑推理过程,而这一点往往是最精华的内容。AI的思考链往往非常严谨,这一点是非常值得学习的,这是我们进步的关键,去看思考的过程逻辑,看是否合理(严谨不一定合理),是否符合自己的需求。我推荐在日常闲暇时,使用DeepSeek的深度思考模式,并且更关心深度思考的部分。
锻炼思考逻辑链的6步骤如下:
1、确立一个经典的辩论问题。
2、独立思考并进行记录。
3、让AI深入思考该辩论问题。
4、对比两者的独立思考差距,并查缺补漏。
5、让AI给出优化方案。
6、反复练习,形成本能。
AI的能力取决于算力,当行业稳定下来,AI可能会面临着算力削减,即降智问题。这是由成本所决定的,AI产业前期不计成本的输出想要长时间持续不太现实,因此利用高算力阶段的AI提升自我思考逻辑才更利于长远发展。
3.9 主动引导纠偏
不要轻易相信AI的内容,主动去引导纠偏的作用是减少对AI的依赖性。
面对AI给出的回复,无论答案看起来多完美,都可以从以下4个维度审视:
1、追问事实与来源。
- 提示词:“你这个结论的依据是什么?”、“请提供相关数据或研究来源。”、“这是普遍共识还是某个学派的观点?”
- 目的:暴露AI的信息边界,检查AI是否混淆事实、观点或虚构内容。对于关键信息,要求它提供可验证的来源(记得验证)。
2、挑战假设与边界。
- 提示词:“你这个回答基于哪些未言明的假设?”、“在什么情况下这个结论会不成立?”、“这个解决方案的潜在成本和风险是什么?”
- 目的:任何回答都有其成立的隐含前提。找出这些前提能立即发现观点的局限性。(PS:我不想谈恋爱,隐含前提是不想和你)
3、寻求对立观点。
- 提示词:“请列举反对这个观点的最强有力的三个论据。”、“如果持相反立场的人会如何反驳你?”、“这个方案有哪些潜在的负面影响?”
- 目的:换位思考。
4、检验逻辑一致性。
- 提示词:“你回答中的A点和B点似乎存在矛盾,请解释。”
- 目的:AI有时会生成“乍看正确实则逻辑混乱”的内容,尤其是在复杂推理中。
主动引导纠偏有很多种方式,以上4个维度是基础的形式,可以根据基础再进行额外的扩展。基于自身遇到的问题而产生对应的处理方式才是合理的成长路径,而非大量摄入方法论(这只会使我们面对问题时纠结使用哪种方法论)。通过主动引导纠偏,我们不仅仅是得到了一个更好的答案,更重要的是提升了自己的批判性思维和深度思考能力。这才是与AI协作中最宝贵的收获。
参考方法论(自行查阅):“六顶思考帽”法、“如果...会怎样?”情景挑战法、第一性原理追问法,角色扮演法等。