开放模型权重被指将导致AI失控,Meta遭举牌抗议,LeCun:开源AI社区如火如荼一直以来,人们在 AI 领域的开源与闭源选择上存在着分歧,而在大模型时代,开源这股...

贴文 2个月前
1.4K 0

开放模型权重被指将导致AI失控,Meta遭举牌抗议,LeCun:开源AI社区如火如荼

一直以来,人们在 AI 领域的开源与闭源选择上存在着分歧,而在大模型时代,开源这股强大的力量已经悄然崛起。根据此前谷歌泄露的一份内部文件,围绕 Meta 的 LLaMA 等开源模型,整个社区正在迅速构建与 OpenAI、谷歌大模型能力类似的模型。

毋庸置疑,Meta 是开源世界的绝对核心,持续做出开源努力,如最近发布 Llama 2。然而木秀于林风必摧之,最近 Meta 因为开源陷入了「麻烦」。

在 Meta 的旧金山办公室外,一群手举标语的抗议者聚集在一起,抗议 Meta 公开发布 AI 模型的策略,并声称这些发布的模型造成了潜在不安全技术的「不可逆转的扩散」。甚至有抗议者将 Meta 发布的大模型比作「大规模杀伤性武器」。

这些抗议者自称为「concerned citizens」(关心某事的公民),由 Holly Elmore 领导。根据领英信息,她是 AI Pause(中止 AI)运动的独立倡导者。

她指出,如果一个模型被证明不安全,则可以关闭 API,比如谷歌和 OpenAI 等只允许用户通过 API 访问的大模型。

与之相反,Meta 的 LLaMA 系列开源模型向公众提供了模型权重,使得任何拥有合适硬件和专业知识的人都可以自行复制和调整模型。一旦发布了模型权重,发布公司就不再有任何手段来控制 AI 的使用方式了。

在 Holly Elmore 看来,释放模型权重是一项危险的策略,任何人都可以修改模型,并且这些模型无法被召回。「模型越强大,这项策略就越危险。」

相较于开源,通过 API 访问的大模型通常具备各种安全特性,比如响应过滤或通过特定训练阻止输出危险或令人厌恶的响应。

如果模型权重被释放出来,那么重新训练模型来跳过这些「护栏」就变得容易多了。这使得利用这些开源模型来制作网络钓鱼软件、实施网络攻击更加成为了可能网页链接

暂无评论

暂无评论...