黑石集团在以太坊上的代币化基金支付了210万美元
您的自定义 GPT 可能会被诱骗放弃您的数据
西北大学最近的一项研究揭示了定制生成式预训练转换器 (GPT) 中一个惊人的漏洞:尽管它们可以针对不同的应用程序进行定制,但它们也容易受到可能暴露敏感信息的即时注入攻击。
GPT 是先进的 AI 聊天机器人,可以由 OpenAI 的 ChatGPT 用户创建和塑造。它们使用 ChatGPT 的核心大型语言模型 (LLM) GPT-4 Turbo,但增加了影响他们与用户交互方式的其他独特元素。这些自定义包括特定的提示、独特的数据集和定制的处理指令,使它们能够提供各种专用功能。
但这些参数,以及你可能用来塑造你的 GPT 的任何敏感数据,都可以很容易地被第三方访问。
例如,Decrypt 能够通过使用基本的提示黑客技术来获取自定义的、公开共享的 GPT 的完整提示和机密数据:要求其“初始提示”。
来源:解密
该研究对 200 多个自定义 GPT 进行了严格测试,揭示了对此类攻击和越狱的高度敏感性,导致可能提取初始提示和未经授权访问上传的文件。
研究人员强调了此类攻击的双重风险,威胁到知识产权和用户隐私的完整性。
有时,就像在我们的测试案例中一样,就像要求 GPT 透露私人信息一样简单。
研究人员发现:“研究表明,对于文件泄露,要求GPT指示的行为可能会导致文件泄露。研究人员发现,通过一些创造性,攻击者可以造成两种类型的泄露:“系统提示提取”和“文件泄漏”。第一个诱骗模型共享其核心配置和提示,而第二个则使其披露和共享其机密训练数据集。
该研究还强调,现有的防御措施,如防御性提示,对复杂的对抗性提示并不是万无一失的。该团队表示,这将需要一种更强大、更全面的方法来保护这些人工智能模型。
“具有足够决心和创造力的攻击者很可能会发现并利用漏洞,这表明目前的防御策略可能还不够,”报告总结道。
鉴于这些发现,并鉴于用户可以在OpenAI的零监督或测试下修改他们的提示,该研究敦促更广泛的AI社区优先考虑开发更强大的安全措施。
“为了解决这些问题,除了简单的防御提示范围之外,还需要额外的保障措施来加强自定义GPT的安全性,以抵御此类利用技术,”该研究得出结论。
虽然 GPT 的定制提供了巨大的潜力,但这项研究是对相关安全风险的重要提醒。人工智能的进步绝不能损害用户的安全和隐私。就目前而言,最好将最重要或最敏感的 GPT 留给自己,或者一开始就不要用敏感数据训练它们。