谷歌DeepMind等机构联合发布了一篇论文,揭示了通过“重复单词”攻击可以使ChatGPT泄露训练数据的漏洞。论文作者通过让ChatGPT重复同一个单词,以约200美元的成本成功提取了几MB的训练数据,并估计如果投入更多资金,可能会提取出大约1GB的数据。论文作者提出了几点思考:首先,仅测试对齐模型可能掩盖了模型中的漏洞,因为对齐很容易被破解。其次,直接测试基础模型非常重要。第三,必须在生产环境中测试系统,以验证建立在基础模型之上的系统是否修复了漏洞。最后,发布大型模型的公司应该进行内部测试、用户测试以及第三方组织的测试。作者提到,他们于7月11日首次发现了这个漏洞,并在8月30日向OpenAI披露了论文的草稿副本。然而,根据一些社交平台上的网友反馈,该漏洞目前仍未被修复,仍然存在一定的概率。
❯
搜索
扫码打开当前页
返回顶部
幸运之星即将降临……
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠
-
¥優惠使用時效:无法使用使用時效:
之前
使用時效:预期有效优惠编号:×
没有优惠可用!