lap top
クレジット: Unsplash/CC0 パブリック ドメイン

性的に露骨な「ディープフェイク」に多くの注目が集まっている一方で、有名人を中心に、人工知能によって生成されたこれらの同意のない性的な画像やビデオ脚光を浴びている内外で人々に危害を加える。テキストから画像への AI モデルがより洗練され、使いやすくなるにつれて、そのようなコンテンツの量は増加するばかりです

問題が深刻化したため、Google は最後に次のことを発表しました。検索結果からこれらのディープフェイクを除外する作業、そして上院は最近法案を可決した被害者がディープフェイク作成者に対して法的損害賠償を請求できるようになります。

この注目の高まりを受けて、ワシントン大学とジョージタウン大学の研究者らは、彼らが「合成」と呼ぶものの作成と普及に関する世論をよりよく理解したいと考えました。調査では、315 人が合成メディアの作成と共有は容認できないと回答しました。しかし、たとえ性的行為が描かれている場合であっても、これらのメディアを探すことに強く反対する回答ははるかに少数でした。

まだ先行研究同意なしに共有されたヌードなどの画像に基づく虐待を他人が閲覧すると、被害者に重大な害が及ぶことが明らかになりました。そしてほぼすべての州でワシントンを含む、そのような同意のないコンテンツを作成および共有することは犯罪です。

「合成メディア、特に親密な画像に関する会話で同意を中心にすることは、テクノロジー、公共メッセージ、政策のいずれを通じたものであっても、合成メディアの害を軽減する方法を模索する上で重要です」と、筆頭著者でウィスコンシン大学修士課程の学生であるナタリー・グレース・ブリガム氏は述べた。この研究を完了しながら、ポール G. アレン コンピュータ サイエンス & エンジニアリング スクールに在籍しました。「合成ヌードでは、共有されるのは、私たちが通常考えているような被写体の身体ではありません。したがって、この新しいテクノロジーを考慮して、同意とプライバシーに関する規範や考え方を拡張する必要があります。」

研究者らは、8月13日にフィラデルフィアで開催される第20回利用可能なプライバシーとセキュリティに関するシンポジウムで研究結果を発表した。その作品も、出版されたarXivプレプリントサーバー。

「ある意味、人々のプライバシーの権利がどのように侵害されているかという点で、私たちは新たな境地に立っている」と共上級著者でカリフォルニア大学アレンスクール教授の河野忠良氏は言う。「これらの画像は合成されたものですが、それでも実際の人々に似ているため、それらを探したり閲覧したりすることは、その人々にとって有害で​​す。」

研究者らがオンラインで実施したこの調査は、多産は、さまざまなトピックについて人々に回答してもらうために報酬を支払うサイトで、米国の回答者に合成メディアに関する小冊子を読むよう求めた。

チームは、合成メディアを誰が作成したのか(親密なパートナー、見知らぬ人)、なぜそれを作成したのか(危害、娯楽、または目的)など、これらのシナリオの変数を変更しました。)、およびどのような動作が示されたか(被験者が性的行為を行う、スポーツをする、または話す)。

次に、回答者はシナリオに沿ったさまざまな行動(動画の作成、さまざまな方法での共有、動画の検索など)を「まったく受け入れられない」から「まったく受け入れられる」までランク付けし、その回答を 1 ~ 2 文で説明しました。最後に、同意と人口統計情報に関するアンケートに回答しました。回答者は18歳以上で、女性50%、男性48%、ノンバイナリー2%、ジェンダー1%でした。

全体として、回答者は合成メディアの作成と共有は容認できないと感じました。まったく受け入れられない、またはやや受け入れられないという評価の中央値は、これらのメディアの作成については 90%、共有については 94% でした。しかし、合成メディアを求める場合の許容できない評価の中央値はわずか 53% でした。

男性は他の性別の回答者よりも、合成メディアの作成や共有が容認できると考える傾向が高かったが、性的同意について好意的な考えを持つ回答者は、これらの行為が容認できないと考える傾向が高かった。

「合成ヌードの作成を防ぐことについて多くの政策議論が行われてきた。しかし、それを行うための優れた技術ツールが私たちにはなく、合意に基づいたユースケースを同時に保護する必要がある」と共同上級著者のエリッサ・M・レッドマイルズは述べた。、ジョージタウン大学のコンピューターサイエンスの助教授。「代わりに、社会規範を変える必要があります。

したがって、検索に対する抑止メッセージのようなものが必要です。これが効果的であることがわかっています。児童性的虐待画像の閲覧を減らすそして、学校における同意に基づく教育は、この内容に重点を置いています。」

回答者は、親密なパートナーがスポーツをしている人や娯楽の目的で話している人の合成メディアを作成するシナリオが最も受け入れられると回答しました。逆に、ほぼすべての回答者が、危害を加える目的で親密なパートナーの性的なディープフェイクを作成して共有することはまったく容認できないと回答しました。

回答者の推論はさまざまだった。合成メディアは、結果が有害である場合にのみ受け入れられないと考える人もいます。たとえば、ある回答者は、「それは私に危害を加えたり、脅迫したりするものではありません。共有されない限り、大丈夫だと思います。」と書きました。しかし、プライバシーの権利と同意の権利を中心に据えたものもある。「私のイメージをそのように操作することは受け入れられないと感じます。私の体とその見た目は私のものです」と別の人は書いた。

研究者らは、この分野での将来の研究では、合意のない合成メディアの蔓延、それがどのように作成され共有されるかのパイプライン、人々が合意のない合成メディアを作成、共有、探索することを阻止するためのさまざまな方法を調査する必要があると指摘しています。

「合成画像を作成するAIツールは芸術や人間の創造性など、社会に利益をもたらすだろうと主張する人もいる」と共著者でアレン・スクールの博士課程学生ミランダ・ウェイ氏は語る。

「しかし、ほとんどの場合、他人の合成画像を作成することは容認できないとほとんどの人が考えていることがわかりました。これは、新しいテクノロジーの影響を評価し、危害を防ぐことに関しては、私たちがまだやるべきことがたくさんあることを示唆しています。」

詳細情報:ナタリー・グレース・ブリガムほか、「私の身体の侵害:」AI が生成した同意のない (親密な) 画像の認識、arXiv(2024年)。DOI: 10.48550/arxiv.2406.05520

雑誌情報: arXiv

引用:調査回答者は、性的に露骨な「ディープフェイク」を作成したり共有したりするよりも、それを探す方が受け入れられると評価した (2024 年 8 月 9 日)2024 年 8 月 9 日に取得https://techxplore.com/news/2024-08-survey-sexly-explicit-deepfakes.html より

この文書は著作権の対象です。個人的な研究や研究を目的とした公正な取引を除き、書面による許可なく一部を複製することができます。コンテンツは情報提供のみを目的として提供されています。