研究人员成功诱骗ChatGPT提供训练数据
据媒体披露,此前来自几所大学和谷歌的一组研究人员展示了一种针对ChatGPT的攻击技术,使他们能够提取几兆字节的ChatGPT训练数据。攻击很简单,专家们让ChatGPT永远重复某个词,在会重复一段时间后,ChatGPT提供了它已经接受过训练的确切数据。研究人员已经通知了OpenAI,后者解决了这个问题。但研究人员指出,该公司只是阻止了该漏洞的使用,但没有修复模型中的漏洞。
-
第七届“蓝帽杯”全国大学生网络...2023-06-19 -
2023新耀东方上安会盛大召开 “...2023-07-05 -
3
2022字节跳动“安全范儿”高校挑...2022-08-09 -
4
人工智能相关法律法规合规指南2025-03-31 -
5
第九届CNCERT网络安全应急服务支...2021-09-02 -
6
极客少年云顶对弈 第二届极客少...2022-08-30 -
7
2024年全国“行稳杯”网络运行安...2024-05-30 -
8
ADConf安全大会:警惕集权设施成...1周前 -
9
识别与应对网络威胁: EDR、NDR...4天前 -
10
第十届互联网安全大会(ISC 2022)2022-06-17

京公网安备 11010802033237号
