LeCun再泼冷水:只会看书的语言模型永远无法实现「类人智能」自去年ChatGPT发布后,业内外都涌现出了一股对大型语言模型的狂热情绪,甚至有谷歌员工宣称公司内部...
LeCun再泼冷水:只会看书的语言模型永远无法实现「类人智能」
自去年ChatGPT发布后,业内外都涌现出了一股对大型语言模型的狂热情绪,甚至有谷歌员工宣称公司内部的语言模型有了意识。
最近,纽约大学教授、Meta首席AI科学家、图灵奖得主Yann LeCun及纽约大学计算机科学系的博士后Jacob Browning发表了一篇长文,他们认为是语言本身的局限性让LLM的智能无法提升。
虽然语言模型变得越来越通用且强大,但我们却越来越不懂模型的思考过程。
模型可以在各个常识推理基准测试中取得非常高的准确率,但为什么还是会说废话、给出危险的建议呢?
也就是说,为什么语言模型如此聪明,能力却又如此有限?
研究人员认为,问题根本不是出在AI算法,而在于语言的局限性,一旦我们放弃「语言即思维」的假设,就会发现尽管LLM的表现出色,但它们永远无法达到接近人类的智慧程度。
语言模型到底是怎么回事?网页链接
版权声明: 发表于 2023-09-02 9:16:10。
转载请注明:LeCun再泼冷水:只会看书的语言模型永远无法实现「类人智能」自去年ChatGPT发布后,业内外都涌现出了一股对大型语言模型的狂热情绪,甚至有谷歌员工宣称公司内部... | AI 時.空 | AiTime.Space
转载请注明:LeCun再泼冷水:只会看书的语言模型永远无法实现「类人智能」自去年ChatGPT发布后,业内外都涌现出了一股对大型语言模型的狂热情绪,甚至有谷歌员工宣称公司内部... | AI 時.空 | AiTime.Space
暂无评论...