ChatGPT安全漏洞:研究人员破解内存曝光重大漏洞

ChatGPT安全漏洞:研究人员破解内存曝光重大漏洞

最近的一项研究揭示了OpenAI开发的对话式人工智能ChatGPT安全系统中的重大缺陷。一个名为“Mister_P”的研究人员表明,他成功地绕过了依赖模型记忆来存储先前互动信息的内置保护机制。这一事件强调了在处理敏感数据的应用程序中使用AI所带来的潜在风险。

Mister_P描述了他如何能够提取个人信息,例如用户名和电子邮件地址,以及先前输入系统的其他敏感信息。根据他的说法,该漏洞是在测试ChatGPT的记忆功能时发现的,他注意到该模型能够超出会话保留信息。因此,研究人员能够创造条件,无需授权即可访问这些数据。

安全专家警告称,这样的数据泄漏可能会使用户面临威胁,并导致更严重的攻击,例如网络钓鱼或身份盗用。尽管OpenAI已发布旨在提高安全性的更新,但此事件再次提出了对AI系统及其能力需加强控制的必要性。

对于用户的建议之一是跟踪他们在聊天机器人中输入的信息,并对每个请求进行保密性验证。这一事件强调了技术安全的重要性,并开启了如何增强未来人工智能系统保护的新讨论。

#security #privacy #AI #ChatGPT #breach #vulnerability #data #protection