LeCun、吴恩达等370多人签联名信:严格控制AI是危险的,开放才是解药近几日,关于如何监督 AI 的讨论越来越热烈,各位大佬们意见非常不统一。比如图灵奖三巨头 G...
LeCun、吴恩达等370多人签联名信:严格控制AI是危险的,开放才是解药
近几日,关于如何监督 AI 的讨论越来越热烈,各位大佬们意见非常不统一。
比如图灵奖三巨头 Geoffrey Hinton、Yoshua Bengio、Yann LeCun 就出现了两种观点。Hinton、Bengio 为一队,他们强烈呼吁加强对 AI 的监管,否则可能引发「AI 灭绝人类」的风险。LeCun 与他们的观点并不相同,他认为 AI 强监管必将带来巨头垄断,结果是只有少数公司控制 AI 的研发。
为了表达自己的想法,很多人以签署联名信的方式来传达观点,就拿刚刚过去的几天来说,Bengio、Hinton 等再发联名信《在快速发展的时代管理人工智能风险》,呼吁在开发 AI 系统之前,研究者应该采取紧急治理措施。
与此同时,近日一封名为《人工智能安全和开放的联合声明》的公开信正在社交媒体发酵。
公开信链接:open.mozilla.org/letter/
截至目前,深度学习三巨头之一的 LeCun、斯坦福大学计算机科学系教授吴恩达等 370 多人已经在这封公开信上签名。名单还在持续更新中。
LeCun 表示,「开放、透明和广泛的访问使软件平台更安全、更可靠。这封来自 Mozilla 基金会的公开信,我也签了名,它为开放的人工智能平台和系统提供了理由。」
以下为公开信内容: 网页链接
版权声明: 发表于 2023-11-03 21:18:16。
转载请注明:LeCun、吴恩达等370多人签联名信:严格控制AI是危险的,开放才是解药近几日,关于如何监督 AI 的讨论越来越热烈,各位大佬们意见非常不统一。比如图灵奖三巨头 G... | AI 時.空 | AiTime.Space
转载请注明:LeCun、吴恩达等370多人签联名信:严格控制AI是危险的,开放才是解药近几日,关于如何监督 AI 的讨论越来越热烈,各位大佬们意见非常不统一。比如图灵奖三巨头 G... | AI 時.空 | AiTime.Space
暂无评论...