MIT Technology Review 的How To系列旨在帮助你解决问题。
自生成式 AI 浪潮席卷而来,艺术家们一直忧心忡忡,担心自己的生计会被 AI 工具所取代。企业用计算机程序取代人工的例子比比皆是。最近,可口可乐用生成式 AI 制作了一支新的圣诞广告,引发了争议。
艺术家和作家们已经对 AI 公司提起多起诉讼,指控他们的作品被未经授权或补偿就抓取到数据库中用于训练 AI 模型。科技公司则回应称,任何公开网络上的内容都属于合理使用范围。但这个问题的法律解决还需要数年时间。
不幸的是,如果你的作品已经被抓取到数据集并用于已有的模型,你几乎无能为力。然而,你可以采取措施防止你的作品在未来被使用。
以下四种方法可以帮助你做到这一点。
隐藏你的风格
艺术家们抵制 AI 抓取最流行的方法之一是在他们的图像上应用“掩码”,以保护他们的个人风格不被复制。
Mist、Anti-DreamBooth 和 Glaze 等工具会对图像的像素进行微小的更改,这些更改对人眼是不可见的,因此,如果图像被抓取,机器学习模型就无法正确地识别它们。你需要具备一些编码技能才能运行 Mist 和 Anti-DreamBooth,但芝加哥大学的研究人员开发的 Glaze 则更易于使用。该工具是免费的,可以作为应用程序下载,也可以在线应用保护。不出所料,它是最受欢迎的工具,已被下载数百万次。
但这些防御措施并非万无一失,今天有效的措施明天可能就失效了。在计算机安全领域,破解防御措施是研究人员的标准做法,因为这有助于人们发现弱点并使系统更安全。使用这些工具是一种权衡:一旦某个东西被上传到网上,你就失去了对其的控制权,无法对图像进行事后保护。
重新思考你的分享方式和地点
DeviantArt 和 Flickr 等流行的艺术作品展示网站已经成为 AI 公司寻找训练数据的金矿。当你将图像分享到 Instagram 等平台时,其母公司 Meta 可以永久使用你的数据来构建其模型,前提是你公开分享了这些数据。(请参阅下面的选择退出选项。)
防止抓取的一种方法是不公开在线分享图像,或者将你的社交媒体资料设置为私密。但对于许多创意人士来说,这根本不可行;在线分享作品是吸引客户的关键方式。
值得考虑在 Cara 上分享你的作品,Cara 是一个新平台,它是为了应对对 AI 的反弹而创建的。Cara 与 Glaze 背后的研究人员合作,计划将该实验室的艺术防御工具集成到平台中。它会自动实施“NoAI”标签,告诉在线抓取器不要从该网站抓取图像。目前,它依赖于 AI 公司尊重艺术家意愿的善意,但这总比没有好。
选择退出抓取
数据保护法可能会帮助你让科技公司将你的数据排除在 AI 训练之外。如果你居住在有此类法律的国家/地区,例如英国或欧盟,你可以要求科技公司选择退出将你的数据抓取用于 AI 训练。例如,你可以按照这些说明操作 Meta。不幸的是,来自没有数据保护法的国家/地区的用户的选择退出请求仅在科技公司的酌情权范围内得到尊重。
由艺术家运营的公司 Spawning AI 创建的网站 Have I Been Trained 允许你搜索以了解你的图像是否已出现在流行的开源 AI 训练数据集中。该组织已与两家公司合作:创建了 Stable Diffusion 的 Stability AI 和推广 AI 开放访问的 Hugging Face。如果你将你的图像添加到 Spawning AI 的 Do Not Train Registry 中,这两家公司已同意在训练新模型之前从其训练数据集中删除你的图像。同样,不幸的是,这依赖于 AI 公司的善意,并非行业标准。
如果其他方法都失败了,就添加一些毒药
创建 Glaze 的芝加哥大学研究人员还创建了 Nightshade,这是一个工具,允许你向你的图像添加一层不可见的“毒药”。与 Glaze 一样,它会对像素进行不可见的更改,但它不仅会让 AI 模型难以解释图像,还会破坏这些模型的未来迭代,并使其表现出不可预测的行为。例如,狗的图像可能会变成猫,手提包可能会变成烤面包机。研究人员表示,只需要很少的毒药样本就能产生影响。
你可以通过下载应用程序来将 Nightshade 添加到你的图像中。在未来,该团队希望将 Glaze 和 Nightshade 结合起来,但目前,这两种保护措施必须分别添加。