画像生成AIに反撃のチャンス!? AIの学習を妨害する新ツール「Nightshade」とは?
画像作品がAIの学習に無断で使用されることを妨害できるツール「Nightshade」が新たにリリースされた。このツールは、画像作品のピクセル構造を肉眼では見えない範囲で破壊し、AIの学習を妨害する機能を持つという。
MIT Technology Reviewによれば、新たにリリースされたNightshadeというツールを使用することで、DALL-E、Midjourney、Stable Diffusionのような画像生成AIの学習に「毒」を与え、画像を生成する能力を無効にすることができるという。
例えば、このツールで毒を付与した画像をAIが学習すると、ファンタジー風の画像を点描風の画像に、または、キュビスム風の画像をアニメ風のイラスト画像だと誤認するようになる。汚染されたデータを除くのは困難を極め、AI開発者は壊れたサンプルを1つ1つ丹念に見つけ出し、削除する必要がある。
開発したシカゴ大学の研究チームは「Nightshadeは、著作権表示やスクレイピング/クロール禁止指示を無視するAI開発企業から、コンテンツ所有者の知的財産を守る強力なツール。Nightshadeのようなシステムを利用することで、映画スタジオ、出版社、ゲーム制作者、アーティストは、AI開発企業に対して反撃をすることができるようになる」と報告している。
さらに、この研究チームのリーダーのベン・ザオ教授は、MIT Technology Reviewに対して「Nightshadeは、AI開発企業からアーティストへとパワーバランスを戻し、著作権や知的財産権の軽視に対する抑止力になるだろう」と語った。
報告書によると、研究者たちはStable Diffusionの最新モデルと、自分たちでゼロから訓練したAIモデルでNightshadeをテストした。その結果、300枚の毒入り画像サンプルを学習したStable Diffusionは、車の画像を求めると、牛の画像が生成されるようになったという。
Nightshadeに先立ち、ザオ教授の研究チームは、Glazeというツールを発表している。このツールは、画像生成AIがアーティストの画像を収集し、それを模倣する機能を破壊できるツールで、発表後に大きな注目を集めた。このツールは、画像のピクセルを微妙に変化させ、機械学習モデルを操作することで、Nightshadeと同様の働きをする。
NightshadeやGlazeのようなツール以外でも、アーティストたちはAI画像生成モデルに対する懸念から何度も裁判を起こしている。
今年1月、アーティストたちはStability AI、Midjourney、DeviantArtを集団訴訟で訴え、著作権で保護された素材や個人情報が同意もなくスクレイピングされたと主張した。2月には、画像提供サービスを運営するゲッティイメージズが、Stable Diffusionの学習に使用された写真をめぐり、Stability AIを提訴した。7月には、同社のAI製品をめぐり、グーグルに対して集団訴訟が起こされた。
NightshadeやGlazeのようなツールによって、アーティストは、作品を再びオンラインに投稿する自信を取り戻している。MIT Technology Reviewの取材を受けたアーティスト、オータム・ビバリーは、「私たちの作品に、力を取り戻せるようなツールを開発してくれて、本当に感謝しています」と語っている。(翻訳:編集部)
from ARTnews