微软发布 PyRIT 工具,帮专家和工程师识别生成式 AI 模型风险

微软近日发布了开源自动化框架 PyRIT,这是一款 Python 风险识别工具包,主要帮助安全专家和机器学习工程师识别生成式 AI 的风险,阻止他们的人工智能系统失控。

微软发布 PyRIT 工具,帮专家和工程师识别生成式 AI 模型风险

微软的 AI Red Team 已经使用该工具,检查包括 Copilot 在内生成式人工智能系统中风险。

微软强调通过向公众提供内部工具,以及分享 AI Red Team 方面的其他投资成果,其目的是推动人工智能安全民主化。

Red Team 是在军事演习、网络安全演习等领域中扮演敌人或竞争对手角色的群体,扮演己方角色的则称作蓝队。Red Team 通常定义为敌方部队,通过攻击网络来提高产品安全性。

微软 AI Red Team 专门成立了一个跨学科的安全专家小组,管理复杂的攻击演习。PyRIT 框架的工作原理如下:

  • PyRit Agent 向目标 Gen AI 系统发送恶意提示词;当它收到 Gen AI 系统的回应时,就会向 PyRIT 评分引擎发送回应。

  • 评分引擎将响应发送给 PyRit 代理;然后,代理根据评分引擎的反馈发送新的提示。

  • 这一自动化过程一直持续到安全专家得到所需的结果为止。

微软已经将相关代码托管到 GitHub 上,感兴趣的用户可以深入阅读。

声明:内容均采集自公开的网站等各类媒体平台,若收录的内容侵犯了您的权益,请联系邮箱,本站将第一时间处理。
资讯

Match Group与OpenAI达成协议,用ChatGPT 撰写新闻稿

2024-2-23 9:23:35

资讯

最高 1.8 万个字符,微软 Copilot 聊天机器人开放“笔记本”功能

2024-2-24 8:17:23

搜索