GPT-4变笨加剧,被曝缓存历史回复:一个笑话讲八百遍,让换新的也不听有网友找到了GPT-4变“笨”的又一证据。他质疑:OpenAI会缓存历史回复,让GPT-4直接复述以...

贴文 1个月前
1.4K 0

GPT-4变笨加剧,被曝缓存历史回复:一个笑话讲八百遍,让换新的也不听

有网友找到了GPT-4变“笨”的又一证据。

他质疑:

OpenAI会缓存历史回复,让GPT-4直接复述以前生成过的答案。

最明显的例子就是讲笑话。

证据显示,即使他将模型的temperature值调高,GPT-4仍重复同一个“科学家与原子”的回答。

就是那个“为什么科学家不信任原子?因为万物都是由它们编造/构造(make up)出来的”的冷笑话。

在此,按理说temperature值越大,模型越容易生成一些意想不到的词,不该重复同一个笑话了。

不止如此,即使咱们不动参数,换一个措辞,强调让它讲一个新的、不同的笑话,也无济于事。

发现者表示:

这说明GPT-4不仅使用缓存,还是聚类查询而非精准匹配某个提问。

这样的好处不言而喻,回复速度可以更快。

不过既然高价买了会员,享受的只是这样的缓存检索服务,谁心里也不爽。

还有人看完后的心情是:

如果真这样的话,我们一直用GPT-4来评价其他大模型的回答是不是不太公平?

当然,也有人不认为这是外部缓存的结果,可能模型本身答案的重复性就有这么高:

此前已有研究表明ChatGPT在讲笑话时,90%的情况下都会重复同样的25个 网页链接

暂无评论

暂无评论...