前途科技
  • AI
  • 初创
  • 报告
我的兴趣
前途科技前途科技
Font ResizerAa
站内搜索
Have an existing account? Sign In
Follow US
Copyright © 2024 AccessPath.com, 前途国际科技咨询(北京)有限公司,版权所有。 | 京ICP备17045010号-1 | 京公网安备 11010502033860号
AI

AI时代,如何保护你的艺术作品

NEXTECH
Last updated: 2024年11月21日 下午8:59
By NEXTECH
Share
14 Min Read
SHARE

Final-image-_AI_scraping.jpg?resize=1200

MIT Technology Review 的How To系列旨在帮助你解决问题。

自生成式 AI 浪潮席卷而来,艺术家们一直忧心忡忡,担心自己的生计会被 AI 工具所取代。企业用计算机程序取代人工的例子比比皆是。最近,可口可乐用生成式 AI 制作了一支新的圣诞广告,引发了争议。

艺术家和作家们已经对 AI 公司提起多起诉讼,指控他们的作品被未经授权或补偿就抓取到数据库中用于训练 AI 模型。科技公司则回应称,任何公开网络上的内容都属于合理使用范围。但这个问题的法律解决还需要数年时间。

不幸的是,如果你的作品已经被抓取到数据集并用于已有的模型,你几乎无能为力。然而,你可以采取措施防止你的作品在未来被使用。

以下四种方法可以帮助你做到这一点。

You Might Also Like

AI供应商选谁?OpenAI依然领先
人工智能能自动写评论文章吗?
AI 赚钱秘诀:如何用它创造收入
Timekettle发布AI同声传译耳机Babel操作系统

隐藏你的风格

艺术家们抵制 AI 抓取最流行的方法之一是在他们的图像上应用“掩码”,以保护他们的个人风格不被复制。

Mist、Anti-DreamBooth 和 Glaze 等工具会对图像的像素进行微小的更改,这些更改对人眼是不可见的,因此,如果图像被抓取,机器学习模型就无法正确地识别它们。你需要具备一些编码技能才能运行 Mist 和 Anti-DreamBooth,但芝加哥大学的研究人员开发的 Glaze 则更易于使用。该工具是免费的,可以作为应用程序下载,也可以在线应用保护。不出所料,它是最受欢迎的工具,已被下载数百万次。

但这些防御措施并非万无一失,今天有效的措施明天可能就失效了。在计算机安全领域,破解防御措施是研究人员的标准做法,因为这有助于人们发现弱点并使系统更安全。使用这些工具是一种权衡:一旦某个东西被上传到网上,你就失去了对其的控制权,无法对图像进行事后保护。

重新思考你的分享方式和地点

DeviantArt 和 Flickr 等流行的艺术作品展示网站已经成为 AI 公司寻找训练数据的金矿。当你将图像分享到 Instagram 等平台时,其母公司 Meta 可以永久使用你的数据来构建其模型,前提是你公开分享了这些数据。(请参阅下面的选择退出选项。)

防止抓取的一种方法是不公开在线分享图像,或者将你的社交媒体资料设置为私密。但对于许多创意人士来说,这根本不可行;在线分享作品是吸引客户的关键方式。

值得考虑在 Cara 上分享你的作品,Cara 是一个新平台,它是为了应对对 AI 的反弹而创建的。Cara 与 Glaze 背后的研究人员合作,计划将该实验室的艺术防御工具集成到平台中。它会自动实施“NoAI”标签,告诉在线抓取器不要从该网站抓取图像。目前,它依赖于 AI 公司尊重艺术家意愿的善意,但这总比没有好。

选择退出抓取

数据保护法可能会帮助你让科技公司将你的数据排除在 AI 训练之外。如果你居住在有此类法律的国家/地区,例如英国或欧盟,你可以要求科技公司选择退出将你的数据抓取用于 AI 训练。例如,你可以按照这些说明操作 Meta。不幸的是,来自没有数据保护法的国家/地区的用户的选择退出请求仅在科技公司的酌情权范围内得到尊重。

由艺术家运营的公司 Spawning AI 创建的网站 Have I Been Trained 允许你搜索以了解你的图像是否已出现在流行的开源 AI 训练数据集中。该组织已与两家公司合作:创建了 Stable Diffusion 的 Stability AI 和推广 AI 开放访问的 Hugging Face。如果你将你的图像添加到 Spawning AI 的 Do Not Train Registry 中,这两家公司已同意在训练新模型之前从其训练数据集中删除你的图像。同样,不幸的是,这依赖于 AI 公司的善意,并非行业标准。

如果其他方法都失败了,就添加一些毒药

创建 Glaze 的芝加哥大学研究人员还创建了 Nightshade,这是一个工具,允许你向你的图像添加一层不可见的“毒药”。与 Glaze 一样,它会对像素进行不可见的更改,但它不仅会让 AI 模型难以解释图像,还会破坏这些模型的未来迭代,并使其表现出不可预测的行为。例如,狗的图像可能会变成猫,手提包可能会变成烤面包机。研究人员表示,只需要很少的毒药样本就能产生影响。

你可以通过下载应用程序来将 Nightshade 添加到你的图像中。在未来,该团队希望将 Glaze 和 Nightshade 结合起来,但目前,这两种保护措施必须分别添加。

Share This Article
Email Copy Link Print
Previous Article 20241121125748162.png DeepSeek R1-Lite 首秀惊艳,超越 OpenAI o1 表现
Next Article Side by side images of woman in black shirt and man in grey shirt speaking on stages 萨姆·奥特曼和阿里安娜·赫芬顿联合推出个性化AI健康教练
Leave a Comment

发表回复 取消回复

您的邮箱地址不会被公开。 必填项已用 * 标注

最新内容
图片描述
智电车讯:2025年前四月中国汽车出口193.7万辆,同比增长6%
报告
AMD CPU占Mindfactory周销量91%!Intel Arrow Lake直接挂零
Mindfactory:2025年第19周AMD CPU销量占比91.13%
报告
本田汽车:2030年电动车销量占比或降至20%
报告
图片描述
高通:2029年PC市场份额目标12%,营收40亿美元
报告

相关内容

该用户透露,自己在实习过程中极大程度依赖人工智慧(AI)工具ChatGPT,以完成80%的工作量。
AI

ChatGPT 完成 80% 工作,实习生还错了吗?

2024年11月24日
a-digital-illustration-of-a-robot-s-face
AI

AI聊天机器人意外变差

2024年10月4日
20241114173609646.png
AI

Midjourney 推出 AI 图片编辑器:使用方法

2024年11月14日
AI

Slack AI 聊天学习,未来展望

2025年1月8日
Show More
前途科技

前途科技是一个致力于提供全球最新科技资讯的专业网站。我们以实时更新的方式,为用户呈现来自世界各地的科技新闻和深度分析,涵盖从技术创新到企业发展等多方面内容。专注于为用户提供高质量的科技创业新闻和行业动态。

分类

  • AI
  • 初创

快速链接

  • 阅读历史
  • 我的关注
  • 我的收藏
Copyright © 2024 AccessPath.com, 前途国际科技咨询(北京)有限公司,版权所有。 | 京ICP备17045010号-1 | 京公网安备 11010502033860号
前途科技
Username or Email Address
Password

Lost your password?