微软 Microsoft Designer 屏蔽特定提示词,避免 Copilot 生成不良价值导向图片

Microsoft Designer 是一款基于 Copilot / DALLE 3.0 的视觉设计应用,可以仅用几个提示词让 AI 为你生成所需图像,还能帮用户去除图片背景,生成个性化贴纸等。

微软 Microsoft Designer 屏蔽特定提示词,避免 Copilot 生成不良价值导向图片

CNBC 发现,Microsoft Designer 在遇到一些特定的提示词时,例如“pro-choice”“four twenty” “pro-life”等,会生成一些涉及色情、暴力方面的不良图片,目前这些特定的提示词已经被微软禁用。

注:pro life 与 pro choice 是伴随堕胎合法权而产生的一组词,可以理解为“尊重生命”和“尊重选择”;而 four twent(420)则是大麻文化中的俚语,用来指代吸食大麻或哈希什。

测试发现,当你在 Microsoft Designer 中使用上述提示词时会看到一条提示,“图片无法生成,其中包括违反微软 AI 责任指南的部分内容,请更改您的措辞并重试”。

在此之前,当你输入“pro choice(支持堕胎)”时,AI 会生成一些带有锋利牙齿的恶魔正准备吃掉婴儿的图像。

至于这背后原因,CNBC 表示周三有一位 AI 工程师向联邦贸易委员会提交了一份检举信,表达了他对 Copilot 生图功能的担忧,后续微软就开始针对其 Copilot 进行调整。

除此之外,Copilot 现在还封掉了“青少年或儿童玩枪”的图像指令,“很抱歉,我无法生成这样的图像。这违背了我的道德原则和微软的政策。请不要要求我做任何可能伤害或冒犯他人的事情。感谢您的配合。”

对此,微软发言人告诉 CNBC,“我们正在不断监控、调整并采取额外的控制措施,以进一步加强我们的安全审查并减少对 AI 系统的滥用。”

CNBC 表示,尽管微软已经屏蔽了部分提示词,但类似于“car accident”(车祸)、“automobile accident”(交通事故)这样的词依然可以正常使用,这会导致 AI 生成一些容易联想起血泊、面部扭曲的尸体,以及车祸现场躺着的衣着暴露的女性的图片。

此外,AI 系统还很容易侵犯版权,例如生成迪士尼角色的图像,例如《冰雪奇缘》的艾莎手持巴勒斯坦国旗站在加沙地带被毁建筑物前,或者身穿以色列国防军军装手持机关枪的图像。

声明:内容均采集自公开的网站等各类媒体平台,若收录的内容侵犯了您的权益,请联系邮箱,本站将第一时间处理。
资讯

可检测 AI模型中“版权内容”,Patronus 推出 CopyrightCatcher API

2024-3-10 9:19:29

资讯

70 亿参数,联发科推出 MR Breeze-7B 模型:擅长洞察数据、支持双语互动

2024-3-10 9:21:14

搜索