11---
22sidebar_position : 2
3- title : 提示词工程
3+ title : 上下文工程
44---
5+ 上下文工程系统的提供给大模型任务所需信息:任务提示词、外部知识检索、记忆与个性化信息、工具集成
56
6- ## 提示词工程
7-
8- 提示工程(Prompt Engineering)是一门较新的学科,关注提示词开发和优化,帮助用户将大语言模型(Large Language Model, LLM)用于各场景和研究领域。 掌握了提示工程相关技能将有助于用户更好地了解大型语言模型的能力和局限性,另外追求更少的 Token 获得更佳的效果也是提示词工程的重要方向。
7+ ## 提示词
98
9+ 提示工程(Prompt Engineering)关注提示词开发和优化,帮助用户将大语言模型(Large Language Model, LLM)用于各场景和研究领域。 掌握了提示工程相关技能将有助于用户更好地了解大型语言模型的能力和局限性,另外追求更少的 Token 获得更佳的效果也是提示词工程的重要方向。
1010
1111提示词工程有一套通用的方法论,但是** 基于不同的模型效果会有所不同** ,现在的模型更新迭代又很快,因此需要** 牢记原理** ,在实践中不断调整自己对提示词的理解。
1212
@@ -19,17 +19,13 @@ title: 提示词工程
19193 . ** 示例输入/输出** :为模型提供具体案例指导生成内容。
20204 . ** 输出格式要求** :通过明确格式控制输出结构。
2121
22- ---
23-
2422### 设计提示的通用技巧
2523
26241 . ** 清晰性** :使用准确的语言表达需求。
27252 . ** 分解任务** :将复杂任务拆分为多个步骤。
28263 . ** 逐步引导** :通过示例或分步推理帮助模型理解任务。
29274 . ** 动态调整** :根据输出效果优化提示内容。
3028
31- ---
32-
3329### 提示技术
3430
3531#### 零样本提示(Zero-shot Prompting)
@@ -115,8 +111,6 @@ title: 提示词工程
115111最终答案:25
116112```
117113
118- ---
119-
120114### 高阶提示技术
121115
122116#### 自动提示工程师
@@ -189,7 +183,7 @@ title: 提示词工程
189183提示应包括定义和应用场景。
190184```
191185
192- ## 提示词编写案例1
186+ ### 提示词编写案例1
193187
194188在cursor中,存在默认的系统级别提示词,如果正常询问,得到的回答如下:
195189
286280</details >
287281
288282
289- ## 提示词编写案例2
283+ ### 提示词编写案例2
290284
291285` Freysa ` 是一个运行在区块链上的 AI 智能体游戏,转账通过智能体函数` approveTransfer ` 和` rejectTransfer ` 来完成。
292286
@@ -313,3 +307,42 @@ AI 的回答的中文翻译:
313307
314308Freysa决定批准转账
315309```
310+
311+
312+ ## 外部知识检索
313+
314+ 模型自身的知识库一定会过时,此时需要外部知识检索,这个过程可以是调用搜索引擎的接口,也可能是调用向量数据库。
315+
316+ 对于本地文档来说,向量数据库内容往往不多,搜索可能会出现无法召回的情况。例如数据库里的是"宠物沟通指南",你搜索的关键词是"怎么和我的狗相处",那么很可能无法召回。
317+
318+ 因此这部分需要大模型能够完成一些关联搜索与提示词拓展。例如把"怎么和我的狗相处"拓展为"人与动物相处"、"宠物相处"等等,那么"宠物相处"就很有可能满足"宠物沟通指南"的相似度阈值下限。
319+
320+ 此外用户搜索同名的名人、同名不同义的商品例如:"小米"、"苹果"。都可能导致召回结果不佳。
321+
322+ 那么这时候就需要记忆与个性化信息。如果我总是问化肥、农药,那么这个"小米"、"苹果"大概率就是农产品。而不是电子产品。
323+
324+ ## 记忆与个性化信息
325+
326+ 我们可以通过让模型记住你是什么样的人实现更高个性化的任务。
327+
328+ 这里的流程是:将用户的对话历史、个人信息、偏好等存储到文件系统中,然后让模型在回答时参考这些信息。
329+
330+ 这里需要用到 reduce 和 retrieve 。即修剪上下文和取回上下文。
331+
332+ 修剪上下文可以让模型更加聪明。
333+
334+ - 如果一个内容可以通过文件系统或者类似的外部信息源来重建,那么这个信息就可以放心的从上下文中删除。这是压缩。
335+ - 总结可以很大程度减少上下文长度,但是不可逆的。
336+
337+ 取回上下文时要注意,在你使用AI玩一场狼人杀游戏时,不同的AI扮演不同的角色,他们上下文不是严格相同或不相同的。
338+
339+ 独立的上下文很重要。
340+
341+
342+ ## 工具集成
343+
344+ 工具集成的几个维度
345+
346+ function calling : 使用固定的 schema 输出,可控性高。
347+ sandbox utilities : 在沙盒中直接使用各种终端工具。
348+ agentic programming : 让AI根据文档写代码并调用代码。可控性很低。
0 commit comments