指令原则大解锁!26条Prompt黄金法则,精准提问,显著提升ChatGPT输出质量!

推荐使用ChatGPT4.0中文网,国内可直接访问:www.chatgp4.com

 

奶茶你的助手:提升大语言模型(LLM)表现的26条提示原则

作为一名搬砖人,奶茶发现自己对ChatGPT产生了依赖症。为了提升工作效率,今天她分享了一篇关于优化大语言模型提示(prompt)的研究论文——这篇论文不仅提供了实用的指导,还配有实验证据,全方位提升使用效果!

图片

该论文提出了26条指导原则,旨在简化不同规模大语言模型的问题制定过程、检验其能力,并增强用户对不同规模模型在接受不同提示时行为的理解。研究者们在LLaMA-1/2(7B、13B和70B)与GPT-3.5/4上进行了广泛实验,验证这些原理在指令和提示设计中的有效性。

论文中指出,尽管ChatGPT等大型语言模型在多个领域和任务中展现出卓越能力,普通用户在设计最佳指令或提示时,常常面对不清晰的操作方法。因此,研究团队旨在揭示与LLMs交互时的“神秘黑盒”,并通过制定更优的提示策略提升预训练LLMs的响应质量。

论文标题:
Principled Instructions Are All You Need for Questioning LLaMA-1/2, GPT-3.5/4

论文链接:
查看论文

26条提升提示质量的原则

以下是论文中总结的26条原则,旨在帮助用户更有效地与LLM交流:

  1. 直接陈述要点,无需使用礼貌用语,如“请”、“谢谢”等。
  2. 整合预期听众的角色,例如“听众是该领域的专家”。
  3. 将复杂任务分解为一系列简单提示并进行互动式对话。
  4. 使用肯定指令,如“做”,避免否定语言。
  5. 当需要清晰理解某个主题时,使用示例提示:
  • 简单解释[具体主题]。
  • 像我11岁孩子一样解释。
  1. 添加“I’m going to tip $xxx for a better solution!”以激励更好的解决方案。
  2. 实施示例驱动的提示,使用少量示例进行引导。
  3. 格式化提示时,使用‘###Instruction###’、‘###Example###’或‘###Question###’。
  4. 在提示中添加短语:“Your task is”(你的任务是)和“You MUST”(你必须)。
  5. 引入短语:“You will be penalized”(你将受到惩罚)。
  6. 在提示中要求以自然方式回答问题。
  7. 使用引导性词汇,例如“think step by step”(逐步思考)。
  8. 添加短语:“确保你的回答是无偏见的,不依赖于刻板印象”。
  9. 允许模型提问,以获取更多信息以生成所需输出。
  10. 请求教导特定主题并在最后添加测试。
  11. 为大语言模型分配一个角色。
  12. 使用分隔符以清晰呈现信息。
  13. 在提示中重复特定单词或短语以强调重点。
  14. 结合思维链(CoT)与少数示例提示。
  15. 使用输出引导器,以期望输出的开始结束你的提示。
  16. 要求详细编写有关特定主题的文章。
  17. 纠正特定文本的语法和风格,而不改变原意。
  18. 处理复杂编码提示时,生成能够自动创建或更改文件的代码。
  19. 使用特定单词、短语或句子启动文本创作。
  20. 明确陈述模型必须遵循的要求。
  21. 根据提供的内容写作,确保内容一致性。

实验结果

为验证上述原则在指令和提示设计中的有效性,作者团队在LLaMA-1/2(7B、13B、70B)和GPT-3.5/4上进行实验。实验分为“提升”(Boosting)和“正确性”(Correctness)两个方面,提升部分通过人类评估应用原则后不同LLM响应质量的提高,正确性则关注模型输出的准确性。

实验结果显示,所有原则在多个规模的LLM上均显著提升了响应质量。特别是在应用原则2、5、15、16、25和26时,大型模型的表现得到了最大改进。

实验结果

总的来看,原则应用之后,各种模型的平均准确率提升超过20%。例如,针对气候变化的问答,通过合理提示增强了回应的深度与分析能力。

结语

这些原则为用户与模型的交互提供了清晰的指导,帮助模型聚焦于关键要素,从而改善响应的质量。未来的研究将进一步探索如何优化模型以适应这些原则,可能的策略包括微调、强化学习和偏好优化。同时,作者指出在处理复杂或特定领域的问题时,这些原则的效果可能会有所限制,这部分取决于模型的推理能力和训练水平。

希望这些原则能帮助奶茶以及其他与大语言模型交互的用户提升工作表现!

滚动至顶部