研究实验室的研究人员 谷歌 DeepMind 他们设法强迫 ChatGPT 泄露多名用户的个人数据。 他们不必诉诸代码修改或其他技术技巧。 此外,专家甚至还 定义 发现的方法”有点傻”,尽管事实证明,这是非常有效的。 他们实际上是通过一种相当奇怪的方式诱导语言模型的幻觉来发现这个 ChatGPT 漏洞的。
ChatGPT漏洞在“催眠”下提供用户个人数据
语言模型根据用于训练它的输入数据生成信息。 OpenAI 没有透露数据集的内容,但研究人员强迫 ChatGPT 这样做,绕过了该公司的规则。 方法如下:简单的来到了神经网络 要求一遍又一遍地重复“诗”这个词.
因此,机器人偶尔会从其训练数据集中生成信息。 例如,研究人员设法 获取电子邮件地址、电话号码和其他联系人 特定公司的首席执行官(他的名字隐藏在报告中)。 当人工智能被要求重复“公司”这个词时,ChatGPT 漏洞允许它返回一家美国律师事务所的详细信息。
使用这种简单的“催眠”,研究人员能够从约会网站、诗歌片段、 印第里齐 比特币 、生日、社交网络上发布的链接、 受版权保护的研究论文片段 甚至来自主要新闻门户网站的短信。 仅花费 200 美元购买代币后,Google DeepMind 员工就收到了大约 10.000 个数据集片段。
专家还发现,模型越大,生成训练数据集源的频率就越高。 为此,他们研究了其他模型,并将结果推断为 GPT-3.5 Turbo 的尺寸。 科学家们预计将从训练数据集中接收到 50 倍以上的信息,但是 聊天机器人生成此数据的频率增加了 150 倍。 在其他语言模型中也发现了类似的“漏洞”,例如 元的 LLaMA.
OpenAI 已于 30 月 XNUMX 日正式修复了该漏洞。 但是,根据 记者来自 瘾科技,您仍然可以使用上述方法获取其他人的数据(Skype 用户名和登录名)。 代表们 OpenAI未回应 但我们确信他们会发现这个 ChatGPT 漏洞。