提示词技巧:如何使用思维链COT巧妙提升LLM输出效果一、为什么说我的Prompt风格偏向「COT思维链」风格的推理?举个例子,当你让一个学生在1秒钟内回复你34242413...
提示词技巧:如何使用思维链COT巧妙提升LLM输出效果
一、为什么说我的Prompt风格偏向「COT思维链」风格的推理?
举个例子,当你让一个学生在1秒钟内回复你34242413+54321321=?等于多少?在学生没有打草稿并且在1秒钟回复你的情况下,除非他提前背过答案或者是神算,否则他可能随便编你一个随机的错误答案给你。
GPT就好像这个学生一样,你需要让它有一定空间分析你提出的问题,打个推理过程的草稿,再组织草稿里面的各个部分之间的关系,最终再得到答案,这样的好处有两点:
答案更加关联你提出问题的本质。
即使答案是没有帮助的,但是推理过程中用户也可以从中收到一定启发。
GPT的Transformer原理大概简言之就是:
每次输出下一个字,都由前面用户的输入 + GPT已经输出的内容来决定。
因此,前文中的推理过程很大程度上影响最终的那一个结果,类似于如果前面内容已经很糟糕了,后面的内容也不会很理想。所以这个推理过程要么出现在你的输入中,要么就交给GPT一开始就推理,而且一定要强调输出推理过程。网页链接
版权声明: 发表于 2023-09-19 8:27:06。
转载请注明:提示词技巧:如何使用思维链COT巧妙提升LLM输出效果一、为什么说我的Prompt风格偏向「COT思维链」风格的推理?举个例子,当你让一个学生在1秒钟内回复你34242413... | AI 時.空 | AiTime.Space
转载请注明:提示词技巧:如何使用思维链COT巧妙提升LLM输出效果一、为什么说我的Prompt风格偏向「COT思维链」风格的推理?举个例子,当你让一个学生在1秒钟内回复你34242413... | AI 時.空 | AiTime.Space
暂无评论...