想象一下,如果您在给一个同事指派工作任务时,只给了一句话来描述需求,他的任务完成效果可能很难达到您的预期。但如果您提供了明确的目标、建议的思考方向和执行策略等更多参考信息,他更有可能以高标准完成任务。
使用 LLM 也一样,您的任务描述(prompt)越清晰、具体、没有歧义,LLM 的表现越能符合您的期望。
百炼提供了 。该工具能针对输入的提示(prompt)进行自动扩写和细节添加,推荐您先将 prompt经过优化工具扩写改进,再接着阅读和体验其他优化技巧。
prompt优化功能通过调用大模型实现,需要消耗一定量的Token,按照 推理费用计费。
在未使用 prompt 框架时,LLM 输出虽表现尚可,但显得过于泛化,缺乏必要的细节和针对特定群体的吸引力。而在使用 prompt 框架时,框架不仅提醒您考虑需求的其它方面,特别是一般 prompt 中缺少的风格、语气和受众,还帮助 LLM 生成更针对年轻群体、细节更多、语言表达更加富有张力的输出。
在 prompt 中提供您期望的输出示例,可以让 LLM “模仿”我们所要求的规范、格式、概念、文法、语气进行输出。同时,提供样例可以让大模型多次输出的结果更一致,从而稳定模型表现。
观察输出时,您可以发现,LLM 学习了样例的要求并针对性地生成了符合格式要求的种草文。
对于许多复杂任务,提醒 LLM 如何完成任务是非常必要的。
在构建复杂的 prompt 时,采用特定的分隔符来界定不同内容单元是极为关键的,这一做法显著增强了 LLM 对 prompt 正确解析的能力。随着任务复杂度的增加,合理利用分隔符越能提升 LLM 的表现。
分隔符的选择应着眼于那些在自然语言文本中罕见的、独特的字符组合,例如:、、等。这些特殊符号序列并无固定规则,关键在于其辨识度高,确保模型能够明确区分这些符号是作为内容区域的界限标识,而非文本中的普通标点或语法组成部分。
您可以在输出中发现明显差别,在使用了分隔符的输出中,LLM 不仅理解了三段话的逻辑关系,还正确识别了分隔符,并根据分隔符的段落生成了三段强相关的总结。
对于逻辑推理和语境学习的复杂任务来说,简单的 prompt 技巧可能无法满足任务需求。但您可以通过引导模型生成推理过程或帮助模型拆解复杂任务并逐步推理的方式,让模型在生成推理结果前生成更多的推理依据,从而提升模型在复杂问题上的表现。
这里为您先介绍(Chain of Thought,COT),它是一种使用起来较为简单的引导方法,但能够显著提高大模型在复杂场景下的推理能力。
任务目的:解析一个复杂的 JSON 结构体
除了思维链,启发 LLM 进行“思考”的实用方法还有提示链(prompt Chaining)。提示链通过多轮对话,引导 LLM “思考” 方向,让 LLM 从简单任务开始,沿着设计好的“思考”方向逐步完成一个复杂推理。
提示链虽然相对思维链来说构建模式更加复杂,但模型表现更好,准确率更高。它非常适合逻辑复杂但能按照固定模式拆解的困难任务。
引导 LLM “思考”的方法还有很多种,比如:思维树(Tree of Thoughts, ToT)、Boosting of Thoughts 等。
问题背景:用户反馈 qwen-turbo 无法稳定地用英文回答英文问题。
优化点有:
将“语言”替换为“语种”。因为“语言”这个词有歧义,不一定代指的是英语、法语,也可以是书面语言、口头语言。语种就没有这个歧义。
优化前 prompt 结构较为松散,而且部分内容过于冗余。因此使用本教程提供的 prompt 框架重新排版并将部分的内容拆分到正确的位置。
- 以上就是本篇文章【Prompt, Prompt Engineering, 提示工程, 提示词】的全部内容了,欢迎阅览 ! 文章地址:http://dgaty.xhstdz.com/xwnews/789.html 栏目首页 相关文章 动态 同类文章 热门文章 网站地图 返回首页 物流园资讯移动站 http://dgaty.xhstdz.com/mobile/ , 查看更多