科技生活
2023-03-26 05:09:07

科技生活| AI克星Glaze以毒攻毒 屏蔽艺术家作品免滥用

[星岛综合报道] 借助人工智能的力量,现在可以在几分钟内复制出独特的艺术风格。但这一创新技术让传统艺术家陷入困境,因为他们的艺术作品被用来训练人工智能模型,然后从他们那里偷走工作机会。有想过你能阻止它们复制你的艺术风格?

芝加哥大学的研究人员制作了一个工具,他们说这个工具可以做到这一点,这个过滤器一旦应用到图像上,就意味着该图像不能被在线搜刮艺术品的人工智能工具读取和复制。该工具被称为Glaze,上周推出了免费工具的测试版供下载。

人工智能艺术(AI art)之所以能够瞬间完成,只是因为它从网上成千上万的艺术作品中提取数据,而这些作品需要艺术家花费数周到数月的时间来创作。Glaze的创作者说,这个工具将协助艺术家保护他们独特的艺术风格不被吸收到人工智能艺术工具的数据库中。

「艺术家真的需要它,这项技术对他们有实质情感和收入的影响,」芝加哥大学电脑科学的教授Ben Zhao2月的一份新闻稿中说。「我们与那些看到学生因为认为这个行业没有希望而退学的老师谈过,也与那些看到自己的风格被盗用的专业艺术家谈过。」

根据新闻稿,该项目涉及对1100多名专业艺术家的研究。该工具测试了195名昔日的艺术家及4名目前正在工作的艺术家身,然后由一个焦点小组评估Glaze在扰乱人工智能模仿方面的准确性。超过90%的受访艺术家表示他们愿意在发布他们的艺术作品时使用该工具。

Glaze是芝加哥大学SAND实验室为网上发布的图像带来保护的第二个项目。SAND之前在2020年创造了一个屏蔽个人照片的工具,以便它们不能被用于训练面部识别软件。但当他们开始将同样的概念应用于艺术时,立即出现了一些问题。

人脸的照片可以归结为几个明显的特征,但艺术要复杂得多,艺术风格由许多东西决定,包括笔触、调色板、光和影以及纹理和定位。

为了「迷惑」人工智能工具,确保它们无法读懂艺术风格并加以复制,研究人员需要分离出艺术作品的哪些部分被人工智能艺术工具强调为关键风格指标。

「我们不需要改变图片中的所有信息来保护艺术家,我们只需要改变『风格特征』(style feature),」芝加哥大学电脑科学研究生Shawn Shan是这项研究的共同作者,他在新闻稿中说。「所以我们必须设计出一种方法,你基本上把风格特征从图片中分离出来,只尝试用『斗篷』(cloak)破坏风格特征。」

为了做到这一点,研究人员使用了一种「以毒攻毒」的方法。斗篷的工作原理是利用人工智能来识别风格特征,这些特征在图像经过滤镜变成新的艺术风格时发生变化,比如立体主义或水彩画,然后采取这些特征并对其进行调整,正好可以欺骗其他人工智能工具。

根据该网站说法,他们的目标是AI模型的致命弱点,即「一种被称为对抗性例子的现象,输入中的微小调整会在AI模型对输入的分类中产生巨大差异」。

基本上,Glaze稍微改变了一件艺术品上的这些关键元素,而使原始艺术品几乎与肉眼见到的没有分别,因此其他AI工具将无法识别,从而也无法复制原始艺术品的个人风格。

「我们让模型教我们一个图像的哪些部分与风格最相关,然后我们用这些信息回来攻击模型,误导它识别出与艺术实际使用的不同风格,」Zhao说。

如果一个为复制艺术作品风格而建立的人工智能工具试图复制一件带有Glaze的艺术作品,它就会将该艺术家的作品解读为具有不同的风格,比如梵高的艺术风格,并会产生一个使用该风格的模仿作品。

研究人员说,尽管许多人工智能艺术工具已经有机会从网上数以千计的非屏蔽图像中学习,但使用Glaze在网上引入更多的屏蔽图像将削弱其模仿的有效性。

为了使用它,艺术家们可以将Glaze下载到他们的电脑上,并在他们希望从AI那里隐身的图像上运行它。他们还可以定制Glaze引入的修改数量,小的修改看起来几乎不可见,但对人工智能的保护较少,而大的修改可能更明显,但提供更多保护。

「与我们交谈的大多数艺术家都已经对这些AI模型采取了行动,」Shan说,「他们开始取下他们的艺术作品,或者只上传低解像度的图片,这些措施对他们的职业生涯是不利的,因为他们就是这样得到工作的。有了Glaze,你越是扰乱图像,保护就越好。而当我们问艺术家们他们能接受什么时,相当多的人选择了最高级别。他们愿意容忍大的扰动,因为如果他们的风格被窃取,会有毁灭性的后果。」

图片:SAND Lab

T09