分享
提示工程: 如何与大型语言模型高效沟通【OpenAI官网翻译】
输入“/”快速插入内容
提示工程: 如何与大型语言模型高效沟通【OpenAI官网翻译】
🔗 原文链接:
https://www.iaiuse.com/posts/38c482...
⏰ 发表时间:2024-03-27
写在前面
•
如何和大语言模型交互,提示词是绕不开的主题,下面的内容是从 OpenAI 官网翻译过来的内容,原文地址为
https://platform.openai.com/docs/guides/prompt-engineering
下面表格中的内容原文是可以在 playground 中运行的,如图:
这份指南旨在帮助你更好地使用大型语言模型(LLM,例如 GPT-4),并获得更理想的结果。以下列出的策略和技巧可以单独使用,也可以组合使用以增强效果。我们鼓励你积极尝试,找到最适合自己的方法。
你还可以参考一些提示示例,了解我们模型的强大能力:
•
提示示例
探索提示示例,学习如何充分利用 GPT 模型。
六大策略助你获得更优结果
1. 清晰明确的指令
请记住,模型无法直接读取你的想法。如果输出结果太长,请要求简短回复;如果输出结果过于简单,请要求专家级别的写作;如果你不喜欢当前的格式,请提供你想要的格式示例。模型需要猜测的东西越少,就越有可能生成你期望的结果。
策略:
•
在你的查询中提供更多细节,以便模型给出更相关的答案。
•
要求模型扮演特定角色,例如“以专家口吻”或“像朋友一样”。
•
使用分隔符清晰区分输入的不同部分,例如使用三重引号、XML 标签或章节标题。
•
明确完成任务所需的步骤,将复杂任务分解成更小的步骤。
•
提供示例,让模型学习你期望的输出风格或格式。
•
指定期望的输出长度,例如字数、句子数、段落数或要点数量。
2. 提供参考文本
语言模型有时会编造答案,尤其是在面对冷门话题或需要引用和链接时。就像学生考试时可以参考笔记一样,为模型提供参考文本可以帮助其生成更准确可靠的答案。
策略:
•
指导模型使用参考文本回答问题,将参考文本作为回答问题的依据。
•
指导模型使用参考文本中的引用来回答问题,并标注引用来源。
3. 将复杂任务分解为更简单的子任务
正如软件工程中将复杂系统分解成多个模块一样,将提交给语言模型的任务分解成更小的子任务也是一种良好的实践。复杂任务通常比简单任务更容易出错,而且可以将复杂任务重新定义为一系列简单任务的工作流程,其中每个任务的输出作为下一个任务的输入。
策略:
•
使用意图分类识别用户查询中最相关的指令,根据用户意图选择最相关的指令集。
•
对于需要很长对话的应用,总结或过滤之前的对话内容,避免超出模型的上下文窗口大小限制。