研究人员成功诱骗ChatGPT提供训练数据

首页 / 快讯 /  正文
发布于:2023-12-04
据媒体披露,此前来自几所大学和谷歌的一组研究人员展示了一种针对ChatGPT的攻击技术,使他们能够提取几兆字节的ChatGPT训练数据。攻击很简单,专家们让ChatGPT永远重复某个词,在会重复一段时间后,ChatGPT提供了它已经接受过训练的确切数据。研究人员已经通知了OpenAI,后者解决了这个问题。但研究人员指出,该公司只是阻止了该漏洞的使用,但没有修复模型中的漏洞。