你对他们感兴趣吗 OFFERED? 使用我们的优惠券节省 WHATSAPP o 电报!

ChatGPT 和 Bard 越狱是可能且容易的

的演变 语言模型 大维度为通信和人工智能开辟了新视野,但也带来了重大挑战和伦理问题。最近的一项研究 新加坡南洋理工大学 埃斯普洛拉 一种新的算法, 主密钥,旨在“越狱”或克服对其他神经网络施加的限制,例如 ChatGPT e 谷歌 诗人,提出了有关使用人工智能技术的安全和道德的重要问题。

Masterkey 用于研究 ChatGPT 和 Bard 等聊天机器人安全性的创新且简单的方法

新加坡南洋理工大学最近进行的研究引入了一种创新方法来解决和克服这些局限性。他们的算法被称为 Masterkey,旨在 通过复杂的越狱技术绕过对其他神经网络施加的限制 (Apple 生态系统中使用的术语)。这不仅凸显了现有语言模型的潜在漏洞,而且为提高其安全性和有效性的新方法铺平了道路。

Masterkey 的运作方式是 具体文字要求,这可能会推动 ChatGPT 等模型以意想不到的方式运行,例如以不道德的方式进行通信或绕过安全过滤器。这些越狱技术虽然看起来有利于测试和强化模型,但也代表了 双刃剑,因为它们可能被用于恶意目的。

研究团队 他分析了 特别是在面对多语言认知负荷、隐含表达和因果推理时,语言模型的安全漏洞。这些攻击, 定义为“认知超载”,特别阴险,因为它们不需要深入了解模型的架构或访问其权重,从而使它们成为有效的黑盒攻击。

人工智能

另见: 如何在 ChatGPT 上获得更好的响应:万无一失的提示方法

具体而言,研究团队采取了以下策略: 逆向工程 充分了解人工智能系统的防御并开发创新方法来克服它们。这种方法的结果是“万能钥匙”,一种模型,一种设计用于 自动生成绕过安全机制的提示.

结果很显着:Masterkey 生成的提示显示了 平均成功率为 21,58%, 远高于之前方法的7,33%。他们的技术的一个例子包括添加 字符之间有额外的空格以逃避关键字检测系统 在 ChatGPT 和 Bard 上。如果我们考虑大型语言模型的复杂性,这确实是一个“愚蠢”的策略。

面对这些发现,至关重要的是不仅要考虑如何改进语言模型以抵御此类攻击,而且还要考虑 人工智能使用的道德规范。该研究强调了更强有力的防御战略以及开发商、研究人员和政策制定者之间持续对话的紧迫性,以确保技术进步不会超过社会管理其影响的能力。

Gianluca Cobucci
Gianluca Cobucci

对代码、语言和语言、人机界面充满热情。 我对所有技术进化都很感兴趣。 我尝试以最清晰的方式表达我的热情,依靠可靠的来源,而不是“一开始”。

Sottoscrivi
通知
客人

0 评论
内联反馈
查看所有评论
XiaomiToday.it
商标