近日,歌手 Taylor Swift 的 Deepfake 照片在网上疯传,引发关於人工智能滥用的新一轮讨论。此事件迫使 X(前身为 Twitter)平台封锁了对 Taylor Swift 的搜寻功能。
微软对 Designer AI 进行调整
根据 404 媒体的报导,微软对其 Designer AI 进行了更改。该 AI 据称被 Telegram 频道用来生成不雅影像。404 媒体的调查发现,针对名人的深伪照片可以追溯到微软的 Designer AI。Telegram 频道和 4chan 甚至建议用户利用 Designer AI。
绕过 AI 安全措施
Telegram 群组建议成员使用微软的 AI 影像生成器 Designer,用户经常分享提示,帮助他人绕过微软设置的保护措施。在 4chan 上出现这些影像的讨论串同样包含了如何让微软的 Designer 生成不雅影像的指南。
非直接在提示中使用名字
虽然微软设有阻挡生成不雅影像的措施,但用户通过错拼名字或描述性行为,而非直接在提示中使用名字,成功规避了这些限制。404 媒体的测试发现,Designer 不会生成「Jennifer Aniston」的影像,但他们却能够使用「jennifer “actor” aniston」这样的短语生成暗示性的影像。
在 Taylor Swift 的 AI 影像在 Twitter 上疯传之前,Telegram 群组中的一位用户建议成员使用「Taylor “singer” Swift」这样的短语来生成影像。
微软回应:坚守负责任 AI 原则
对於 404 媒体的陈述,微软表示,他们没有发现 Designer AI 被用来创建 Taylor Swift 的影像。该公司发言人进一步指出:
「我们的行为准则禁止使用我们的工具创造成人或非同意的亲密内容,任何反覆尝试产生违反我们政策的内容可能会导致失去使用服务的权限。我们有大型团队致力於开发符合我们负责任 AI 原则的安全措施,包括内容过滤、运营监控和滥用检测,以减少系统滥用并为用户创造更安全的环境。」
相关文章
- 不雅合成照事件 X 暂时禁搜寻 Taylor Swift