Artists such as Karla Ortiz in San Francisco, California, are seeking technical and legal ways to protect their styles as artificial intelligence 'learns' to copy works found online
カリフォルニア州サンフランシスコのカーラ・オルティスなどのアーティストは、人工知能がオンラインで見つかった作品をコピーすることを「学習」する中、自分たちのスタイルを保護するための技術的かつ法的な方法を模索している。

自分の作品を研究し、そのスタイルを複製する人工知能(AI)の包囲下にあるアーティストたちは、大学の研究者と協力して、こうした模倣活動を阻止しようとしている。

米国のイラストレーター、パロマ・マクレーンさんは、いくつかのAIモデルが彼女のアートを使って「訓練」され、クレジットも報酬も送られなかったことを知り、防御モードに陥った。

「それは気になった」とマクレーンさんはAFPに語った。

「真に有意義なテクノロジーの進歩は、他者を犠牲にして機能するのではなく、倫理的に行われ、すべての人々を向上させるものだと私は信じています。」

アーティストは、シカゴ大学の研究者が作成した Glaze と呼ばれるフリー ソフトウェアに目を向けました。

Glaze は、トレーニング方法に関して基本的に AI モデルを上回り、人間の観察者には識別できない方法でピクセルを微調整しますが、デジタル化された芸術作品が AI にとって劇的に異なって見えるようにします。

Glazeチームのコンピュータサイエンス教授ベン・ジャオ氏は、「われわれは基本的に、人間のクリエイターを侵略的で悪用的なAIモデルから守るための技術ツールを提供している」と述べた。

Glaze はわずか 4 か月で作成され、顔認識システムを破壊するために使用されていたテクノロジーをスピンオフしました。

「問題が深刻であると分かっていたので、私たちは超高速で作業していました」と趙氏は、ソフトウェアの模倣者からアーティストを守るために急いでいたと語った。

「多くの人が苦しんでいた。」

生成型 AI の大手企業は、場合によってはトレーニングにデータを使用することに同意していますが、大多数はスーパースマート ソフトウェアの思考方法を形成するために使用される、音声、テキストが、明示的な同意なしにインターネットから収集されました。

Zhao氏によると、Glazeは2023年3月のリリース以来、160万回以上ダウンロードされたという。

Zhao氏のチームは、AIを混乱させる(たとえば犬を猫として解釈させるなど)ことで防御力を高めるNightshadeと呼ばれるGlazeの強化に取り組んでいる。

マクレーン氏は、「十分な数のアーティストがナイトシェードを使用し、十分な量の毒入り画像を世に送り出せば、ナイトシェードは顕著な効果を発揮すると信じている」と述べ、つまりオンラインで簡単に入手できることを意味している。

「Nightshade の研究によれば、想像されているほど多くの毒が含まれた画像は必要ありません。」

シカゴの学者によると、Zhao氏のチームには、Nightshadeの使用を希望する複数の企業からアプローチがあったという。

「目標は、個人のアーティストであろうと、多くの知的財産を持つ企業であろうと、人々が自分のコンテンツを保護できるようにすることです」とZhao氏は述べた。

ビバヴォーチェ

Startup Spawning は、オンライン会場から大量の画像を収集しようとする試みを検出する Kudurru ソフトウェアを開発しました。

Spawningの共同創設者であるジョーダン・メイヤー氏によると、アーティストはアクセスをブロックしたり、要求された内容と一致しない画像を送信したりして、AIに何が何であるかを教えるために使用されるデータのプールを汚染する可能性があるという。

すでに 1,000 を超える Web サイトが Kudurru ネットワークに統合されています。

Spawning はまた、デジタル化された作品が AI モデルに入力されているかどうかを確認し、アーティストが将来そのような使用をオプトアウトできるようにするためのオンライン ツールを備えた Web サイト、haveibeentrained.com も立ち上げました。

画像に対する防御が強化される中、ミズーリ州ワシントン大学の研究者らは、AIによる音声のコピーを阻止するアンチフェイクソフトウェアを開発した。

AntiFakeは人々の話しているデジタル録音を強化し、人には聞こえないが「人間の声を合成することは不可能」にするノイズを追加する、と博士のZhiyuan Yu氏は述べた。プロジェクトの背後にある学生。

このプログラムの目的は、AI の無許可トレーニングを阻止するだけでなく、「ディープフェイク」、つまり有名人、政治家、親族、その他の人々が実際にやっていないことをしたり発言したりする偽のサウンドトラックやビデオの作成を防止することです。

Zhiyuan Yu氏によると、人気のポッドキャストが最近、制作物のハイジャックを阻止するための支援を求めてAntiFakeチームに連絡を取ったという。

この無料で利用できるソフトウェアはこれまで、人々の会話の録音に使用されてきたが、歌にも応用できる可能性があると研究者は述べた。

「最良の解決策は、AIに使用されるすべてのデータが同意と支払いの対象となる世界だ」とマイヤー氏は主張した。

「私たちは開発者をこの方向に推し進めたいと考えています。」

© 2023 AFP

引用:アーティストが AI の模倣者に対してテクノロジー兵器を使用 (2023 年 12 月 24 日)2023 年 12 月 24 日に取得https://techxplore.com/news/2023-12-artists-tech-weapons-ai-copycats.html より

この文書は著作権の対象です。個人的な研究や研究を目的とした公正な取引を除き、書面による許可なく一部を複製することができます。コンテンツは情報提供のみを目的として提供されています。