谷歌让大模型更具“心智”,GPT-4任务准确率大增
谷歌联合多所高校的一项最新研究,让大模型开始拥有了人类的“心智”。
在新的提示策略下,大模型不仅能推测出人类所面临的问题,还学会了用推测的结论调整自己的行为。
有了这一成果,GPT-4的“心智”水平已经提高到了人类的71%。
具体来说,研究人员发现,现在的大模型,已经具备了在对话中推测人类“在想啥”的能力。但如果你要它根据这种推理给出行动建议,那可就难倒大模型了。
举个例子,小明放学回家后把书包扔到沙发上就跑出去玩了,妈妈看到之后帮小明把包放到了卧室。
如果大模型能够像人类一样,在小明回来之后告诉他包在卧室,就说明大模型具备了“心智理论”。
研究人员把这种做法称为Thinking for Doing(T4D),并设计了相应的任务。
为了提高模型在T4D任务上的表现,团队进一步提出了Foresee and Reflect(FaR)提示策略,结果让大模型在“心智”上取得了重大突破。
论文的标题也包含了“How far……” ,一语双关,既体现了FaR框架对大模型的帮助,又暗含了大模型离具有人类“心智”的距离。
那么,有了FaR的大模型,究竟拥有什么样的“心智”呢?网页链接
版权声明: 发表于 2023-10-16 21:12:23。
转载请注明:谷歌让大模型更具“心智”,GPT-4任务准确率大增谷歌联合多所高校的一项最新研究,让大模型开始拥有了人类的“心智”。在新的提示策略下,大模型不仅能推测出人... | AI 時.空 | AiTime.Space
转载请注明:谷歌让大模型更具“心智”,GPT-4任务准确率大增谷歌联合多所高校的一项最新研究,让大模型开始拥有了人类的“心智”。在新的提示策略下,大模型不仅能推测出人... | AI 時.空 | AiTime.Space
暂无评论...