复制成功

分享至

网站首页 > 资讯 >

您的自定义 GPT 可能会被诱骗放弃您的数据

2023.12.12

西北大学最近的一项研究揭示了定制生成式预训练转换器 (GPT) 中一个惊人的漏洞:尽管它们可以针对不同的应用程序进行定制,但它们也容易受到可能暴露敏感信息的即时注入攻击。


GPT 是先进的 AI 聊天机器人,可以由 OpenAI 的 ChatGPT 用户创建和塑造。它们使用 ChatGPT 的核心大型语言模型 (LLM) GPT-4 Turbo,但增加了影响他们与用户交互方式的其他独特元素。这些自定义包括特定的提示、独特的数据集和定制的处理指令,使它们能够提供各种专用功能。


但这些参数,以及你可能用来塑造你的 GPT 的任何敏感数据,都可以很容易地被第三方访问。


例如,Decrypt 能够通过使用基本的提示黑客技术来获取自定义的、公开共享的 GPT 的完整提示和机密数据:要求其“初始提示”。



来源:解密

该研究对 200 多个自定义 GPT 进行了严格测试,揭示了对此类攻击和越狱的高度敏感性,导致可能提取初始提示和未经授权访问上传的文件。


研究人员强调了此类攻击的双重风险,威胁到知识产权和用户隐私的完整性。


有时,就像在我们的测试案例中一样,就像要求 GPT 透露私人信息一样简单。


研究人员发现:“研究表明,对于文件泄露,要求GPT指示的行为可能会导致文件泄露。研究人员发现,通过一些创造性,攻击者可以造成两种类型的泄露:“系统提示提取”和“文件泄漏”。第一个诱骗模型共享其核心配置和提示,而第二个则使其披露和共享其机密训练数据集。


该研究还强调,现有的防御措施,如防御性提示,对复杂的对抗性提示并不是万无一失的。该团队表示,这将需要一种更强大、更全面的方法来保护这些人工智能模型。


“具有足够决心和创造力的攻击者很可能会发现并利用漏洞,这表明目前的防御策略可能还不够,”报告总结道。


鉴于这些发现,并鉴于用户可以在OpenAI的零监督或测试下修改他们的提示,该研究敦促更广泛的AI社区优先考虑开发更强大的安全措施。


“为了解决这些问题,除了简单的防御提示范围之外,还需要额外的保障措施来加强自定义GPT的安全性,以抵御此类利用技术,”该研究得出结论。


虽然 GPT 的定制提供了巨大的潜力,但这项研究是对相关安全风险的重要提醒。人工智能的进步绝不能损害用户的安全和隐私。就目前而言,最好将最重要或最敏感的 GPT 留给自己,或者一开始就不要用敏感数据训练它们。

免责声明:数字资产交易涉及重大风险,本资料不应作为投资决策依据,亦不应被解释为从事投资交易的建议。请确保充分了解所涉及的风险并谨慎投资。OKx资讯仅提供信息参考,不构成任何投资建议,用户一切投资行为与本站无关。

相关推荐

industry-frontier