艺术家可以使用毒丸来对抗人工智能的利用

跨境快讯 2024-02-02 00:07:14 woniu
2
导读:研究人员希望茄属植物能够成为“数据中毒”的一个例子,以防止未经授权的摄入艺术家的作品。


生成式人工智能创建视觉图像的惊人能力正在变得越来越好、越来越容易获得,但由于他们的模型基于大量现有艺术库,艺术家们正在疯狂地寻找方法来防止他们的作品在未经他们许可的情况下被盗用。一种名为 Nightshade 的新工具可能就是答案。
这个技巧涉及使用优化的、针对特定提示的“数据中毒攻击”,当将数据输入图像生成器时,会破坏训练人工智能模型所需的数据。

“多年来,中毒一直是机器学习模型中已知的攻击媒介,”赵本教授告诉Decrypt。“茄属植物之所以有趣,并不是因为它会中毒,而是因为它会毒害生成式人工智能模型,而没有人认为这是可能的,因为这些模型太大了。”
自生成式人工智能模型今年成为主流以来,打击知识产权盗窃和人工智能深度造假已变得至关重要。今年 7 月,麻省理工学院的一组研究人员同样建议注入少量代码,这会导致图像扭曲,使其无法使用。

生成式人工智能是指使用提示生成文本、图像、音乐或视频的人工智能模型。谷歌、亚马逊、微软和Meta都投入巨资为消费者提供生成式人工智能工具。

正如赵解释的那样,Nightshade 通过针对提示(例如,创建龙、狗或马的图像的请求)来解决 AI 模型的大型数据集问题。

“攻击整个模型是没有意义的,”赵说。“你真正想要攻击的是个体提示,削弱模型并使其无法生成艺术。”

研究小组解释说,为了避免被发现,中毒数据中的文本和图像必须精心设计,使其显得自然,并精心设计以欺骗自动对准检测器和人工检查员,以达到预期效果。
尽管有毒的茄属植物数据集只是一个概念证明,但赵说,欺骗像稳定扩散这样的人工智能模型,让其认为猫是狗的最简单方法就是简单地将几百张猫的图像错误地标记为狗。

即使没有任何协调,艺术家也可以开始集体实施这些毒丸,这可能会导致人工智能模型崩溃。

“一旦同一模型上出现足够多的攻击,该模型就会变得毫无价值,”赵说。“我所说的毫无价值,是指你给它‘给我一幅画’之类的东西,它就会呈现出看起来像万花筒的像素。该模型实际上被简化为类似于随机像素生成器的版本。”

赵说,Nightshade 不需要对 AI 图像生成器本身采取任何操作,而是在 AI 模型尝试消耗 Nightshade 所包含的数据时生效。

他说:“除非他们拍摄这些图像并将其放入训练数据中,否则它对他们没有任何作用。”他称这与其说是一种攻击,不如说是一种自卫,或者是针对人工智能开发人员的带有毒药提示的铁丝网。尊重选择退出请求和不抓取指令。
“这是为了解决这个问题而设计的,”赵说。“所以我们用带刺的铁丝网蜇了一些毒药。除非你跑来跑去,把这些东西弄得一团糟,否则你就不会受苦了。”
原文链接:https://decrypt.co/203153/ai-prompt-data-poisoning-nightshared

版权声明: woniu 发表于 2024-02-02 00:07:14。
转载请注明: 艺术家可以使用毒丸来对抗人工智能的利用 | 跨境湾

相关文章