AI资讯元提示让LLM充当「指挥者」我们已看到,GPT-4、PaLM、LLaMa等新一代大模型已经在NLP处理生成中,展现出强大的泛化能力。然而,所有的LLM并非强大到无所不...

贴文 4周前
810 0

AI资讯元提示让LLM充当「指挥者」

我们已看到,GPT-4、PaLM、LLaMa等新一代大模型已经在NLP处理生成中,展现出强大的泛化能力。然而,所有的LLM并非强大到无所不能,也会在输出结果中产生「幻觉」,比如输出不符合事实、误导性的内容。随着这些模型的运行成本变得更加实惠,人们自然会问,是否可以使用「脚手架」(Scaffolding)系统并利用多个 大模型查询,以便提升LLM输出的准确性和稳健性?在这项研究中,斯坦福和OpenAI的研究人员便提出了一种增强大模型性能的新技术——元提示(meta-prompting)。这个过程,就需要构建一个高级「元提示」,来指示大模型:– 将复杂的任务或问题分解为多个小的、可管理的子任务– 为每个子任务分配一个受过特定领域训练的「专家」模型– 监督这些专家模型之间的沟通– 在整个过程中,运用LLM理解、推理和验证能力当收到「查询」时,大模型在元提示下充当「指挥者」。它会生成一个消息历史,包含来自各种专家模型的响应。LLM最初负责生成消息历史中的「指挥」部分,过程就包括选择专家模型,并为它们制定具体指示。然而,相同的LLM也可以充当这些独立专家,根据指挥者为每个特定查询选择的专业知识和信息生成输出。这种方法允许单一、统一的LLM保持一致的推理思路,同时还可以利用各种专家角色。通过动态选择的上下文来提示这些专家,从而为大模型流程引入了新的视角,而指挥模型则保留了整个历史和协调的全景图。因此,这种方法使单个黑盒LLM,能够有效地充当核心指挥者的角色,又可以作为多样化专家小组生成更准确、可靠和一致的响应。作者介绍,「元提示」方法结合并扩展了进来一系列关于各种 「提示理念」的研究。其中,就包括高层次规划和决策、动态角色分配、多智能体辩论、自我调试和自我反思等等 网页链接

暂无评论

暂无评论...