Insider Q&A: Trust and safety exec talks about AI and content moderation
クレジット: AP Illustration/Jenni Sohn

アレックス・ポプケン氏は、2023年に退職するまで、Twitter社の信頼と安全性の責任者を長年務め、コンテンツのモデレーションに注力していた。2013年に入社したとき、彼女はTwitterの広告事業のモデレーションに専念する最初の従業員だった。

現在、彼女は WebPurify の信頼と安全性担当副社長を務めています。WebPurify は、企業と協力してサイトに投稿するコンテンツがルールに従っていることを保証するコンテンツ モデレーション サービス プロバイダーです。

取り締まりが必要なのはソーシャルメディアプラットフォームだけではありません。小売店から出会い系アプリ、ニュースサイトに至るまで、消費者向けの企業には、ヘイトスピーチや嫌がらせ、その他違法なものであっても、不要なコンテンツを排除する人が必要です。企業の利用が増えていますしかしポップケン氏は、人間が依然としてそのプロセスに不可欠であると指摘する。

ポップケン氏は最近、AP通信と対談した。会話はわかりやすく、長くなるように編集されています。

質問: Twitter に在籍していた 10 年間で、コンテンツのモデレーションはどのように変化しましたか?

回答: 私が Twitter に参加したとき、コンテンツのモデレーションは初期段階にありました。信頼と安全でさえ、人々が理解し、取り組み始めたばかりの概念だったと思います。プラットフォームが新しい方法で武器化されるのを目にするにつれて、コンテンツモデレーションの必要性が高まりました。Twitter での在職期間におけるいくつかの重要なマイルストーンを思い出すことができます。たとえば、2016年の米国に対するロシアの干渉。そこで私たちは、コンテンツの管理がなければ悪者が民主主義を損なう可能性があることを初めて認識し、有意義な方法で認識しました。この分野への投資の必要性がますます重要になっています。

Q: 多くの企業、大手ソーシャルメディア企業は、コンテンツのモデレーションを AI に頼っています。AI はまだ信頼できる段階にあると思いますか?

A: 効果的なコンテンツモデレーションは人間と機械の組み合わせです。AI は長年にわたって適度に使用されてきましたが、規模の問題は解決します。したがって、さまざまなポリシーに基づいてトレーニングされ、コンテンツを検出できる機械学習モデルが得られます。しかし最終的には、「ナチス」という単語を検出する機械学習モデルがあるとします。ナチスを批判したり、ナチスと白人至上主義などについて教育的な内容を提供したりする可能性のある投稿がたくさんあります。したがって、ニュアンスや文脈を解決することはできません。そして、まさにそこに人間の層が関わってくるのです。

人間の仕事を容易にする本当に重要な進歩が見られ始めていると私は思います。生成 AI はその好例だと思いますが、従来とは異なります。AI モデルは、前任者よりもはるかに文脈やニュアンスを理解できます。しかしそれでも、生成的な AI 出力のモデレートに関して、人間のモデレーターのまったく新しいユースケースが生まれています。したがって、人間による節度の必要性は、当面は続くだろうと私の意見ではあります。

Q: あなたが協力している非ソーシャルメディア企業と、彼らがどのようなコンテンツモデレーションを使用しているかについて少し話してもらえますか?

A: つまり、小売製品のカスタマイズに至るまで、人々が T シャツをカスタマイズできるようにしていると想像してみてください。明らかに、人々がそれを悪用したり、有害で憎悪に満ちたものを T シャツに貼り付けるようなユースケースは避けたいと考えます。

実際、ユーザーが作成したコンテンツを含むものはすべて、そこでは、ナマズや詐欺などを探し、人々が本人であることを保証し、たとえば不適切な写真をアップロードするのを防ぎます。それは複数の業界にまたがっています。

Q: あなたがモデレートしている問題についてはどうですか。変化はありますか?

A: コンテンツのモデレーションは常に進化しています。そしてそれは世界で起こっていることに影響を受けます。それは新しく進化するテクノロジーの影響を受けています。これは、新しく革新的な方法でこれらのプラットフォームに侵入しようとする悪意のある攻撃者の影響を受けています。したがって、コンテンツ モデレーション チームとしては、一歩先を行き、新たなリスクを予測する必要があります。

この役割には、ここで起こり得る最悪のシナリオは何か、などについて考える、少し破滅的な思考があると思います。そして確かに彼らは進化します。誤報は非常に多くの側面があり、それを和らげるのが非常に難しいことを示す良い例だと思います。それは海を沸騰させるようなものです。つまり、誰かが言ったことをすべて事実確認することは不可能ですよね?したがって、通常、プラットフォームは現実世界で最も害を及ぼさないように、誤った情報に焦点を当てる必要があります。そしてそれは常に進化し続けています。

Q: 生成 AI に関して言えば、インターネットが破壊される、つまり、偽の AI がそこに置かれるだけになるという終末論的な考えがあります。そういうことが起こりそうな気がしますか?

A: 私は、特に世界的に非常に重要な選挙の時期に、AI によって生成された誤った情報について懸念しています。ご存知のとおり、オンラインではディープフェイクや有害な合成・操作されたメディアが増えています。これは憂慮すべきことであり、おそらく一般の人は苦労していると思います。正確かそうでないかの識別。

中長期的には、私が適切に規制され、その周りに適切なガードレールがあれば、信頼と安全の実務家にとってチャンスを生み出すことができると思います。私はします。AI が脅威インテリジェンスなどのコンテンツ管理ツールの中で重要なツールとなっている世界を想像してみてください。これは非常に便利なツールになると思いますが、悪用されることもあります。そして私たちはすでにそれを目の当たりにしています。

© 2024 AP通信。無断転載を禁じます。この素材を許可なく出版、放送、書き換え、または再配布することはできません。

引用:インサイダー Q&A: Trust and Safety 担当幹部が AI とコンテンツモデレーションについて語る (2024 年 4 月 23 日)2024 年 4 月 23 日に取得https://techxplore.com/news/2024-04-insider-qa-safety-exec-ai.html より

この文書は著作権の対象です。個人的な研究や研究を目的とした公正な取引を除き、書面による許可なく一部を複製することができます。コンテンツは情報提供のみを目的として提供されています。