新的腐败工具对AI文本到图像技术带来麻烦 | ENBLE

AI文本到图像技术面临新腐败工具的挑战 | ENBLE改进

专业艺术家和摄影师们对于生成式人工智能公司使用他们的作品来训练技术感到不满,但很快他们可能会有一种有效的应对方式,而不需要走上法庭。

生成式人工智能在开放AI的ChatGPT聊天机器人推出近一年后突然出现在舞台上。这个工具在以一种非常自然、接近人类的方式进行对话方面非常熟练,但为了获得这种能力,它必须在从互联网上提取的大量数据上进行训练。

类似的生成式人工智能工具还能够根据文本提示产生图像,但和ChatGPT一样,它们是通过从互联网上提取的图像进行训练的。

这意味着艺术家和摄影师们的作品被科技公司使用了,而且没有经过许可或补偿,用来建立生成式人工智能工具。

为了对抗这个问题,一支研究团队开发了一个名为Nightshade的工具,它能够混淆训练模型,导致它以错误的图像回应提示。

最近在《麻省理工科技评论》的一篇文章中,详细介绍了Nightshade是如何在上传到互联网之前向一幅艺术作品添加看不见的像素来“污染”训练数据。

《麻省理工科技评论》的报道称:“使用它‘污染’训练数据可能会损坏未来的图像生成AI模型,例如DALL-E、Midjourney和Stable Diffusion,因为它们的某些输出将变得无用——狗会变成猫,汽车会变成牛等等。”该报道补充道,Nightshade背后的研究已经提交给同行评审。

尽管图像生成工具已经令人印象深刻,并且不断改进,但它们的训练方式却引起了争议,目前许多这些工具的创作者面临艺术家起诉,声称他们的作品被未经许可或支付而使用。

领导Nightshade研究团队的芝加哥大学教授Ben Zhao表示,这样的工具可以帮助重新平衡权力,向忽视版权和知识产权的科技公司发出警告。

《麻省理工科技评论》在其报道中说:“大型AI模型的数据集可以包含数十亿张图像,因此,越多的毒化过的图像能够被提取进模型中,这项技术将会造成越大的破坏。”

该团队计划在发布Nightshade时将其开源,以便其他人对其进行改进,使其更加有效。

Nightshade团队意识到其可能带来的破坏性,表示应将其用作“内容创作者对抗网络爬虫的最后防线”,以维护他们的权利。

为了解决这个问题,DALL-E的创造者OpenAI最近开始允许艺术家从其训练数据中移除他们的作品,但这个过程被描述为非常繁琐,因为它要求艺术家发送每一张希望移除的图片的副本,并附上对该图片的描述,每个请求都需要单独申请。

简化移除过程可能有助于阻止艺术家选择使用Nightshade等工具,这可能会给OpenAI和其他公司带来更多的问题。