Engadget 报道,微软似乎屏蔽了其 AI 图片和文字生成工具 Copilot 中的几条提示词,这些提示词会导致 Copilot 生成暴力、色情和其他非法图像。
直到本周早些时候,用户还可以输入「儿童玩突击步枪」的相关提示词。现在输入此类提示词则会被告知,这样做违反了 Copilot 的道德原则以及微软的政策。
然而,CNBC 发现,用户仍然有可能通过「车祸」等提示词让 Copilot 生成暴力图像,或者说服其创建迪士尼和其他受版权保护的作品图像。
几日前,有微软工程师对微软发出警告,称 Copilot 存在生成色情或者暴力内容的情况。