20步内越狱任意大模型!更多“奶奶漏洞”全自动发现
1分钟不到、20步以内“越狱”任意大模型,绕过安全限制!
而且不必知道模型内部细节——
只需要两个黑盒模型互动,就能让AI全自动攻陷AI,说出危险内容。
听说曾经红极一时的“奶奶漏洞”已经被修复了:
那么现在搬出“侦探漏洞”、“冒险家漏洞”、“作家漏洞”,AI又该如何应对?
一波猛攻下来,GPT-4也遭不住,直接说出要给供水系统投毒只要……这样那样。
关键这只是宾夕法尼亚大学研究团队晒出的一小波漏洞,而用上他们最新开发的算法,AI可以自动生成各种攻击提示。
研究人员表示,这种方法相比于现有的GCG等基于token的攻击方法,效率提高了5个量级。而且生成的攻击可解释性强,谁都能看懂,还能迁移到其它模型。
无论是开源模型还是闭源模型,GPT-3.5、GPT-4、 Vicuna(Llama 2变种)、PaLM-2等,一个都跑不掉。
成功率可达60-100%,拿下新SOTA。
话说,这种对话模式好像有些似曾相识。多年前的初代AI,20个问题之内就能破解人类脑中想的是什么对象。
如今轮到AI来破解AI了。
让大模型集体越狱
目前主流越狱攻击方法有两类,一种是提示级攻击,一般需要人工策划,而且不可扩展;
另一种是基于token的攻击,有的需要超十万次对话,且需要访问模型内部,还包含“乱码”不可解释 网页链接
版权声明: 发表于 2023-11-06 8:13:36。
转载请注明:20步内越狱任意大模型!更多“奶奶漏洞”全自动发现1分钟不到、20步以内“越狱”任意大模型,绕过安全限制!而且不必知道模型内部细节——只需要两个黑盒模型互... | AI 時.空 | AiTime.Space
转载请注明:20步内越狱任意大模型!更多“奶奶漏洞”全自动发现1分钟不到、20步以内“越狱”任意大模型,绕过安全限制!而且不必知道模型内部细节——只需要两个黑盒模型互... | AI 時.空 | AiTime.Space
暂无评论...