ai
クレジット: CC0 パブリック ドメイン

世界中の政策立案者は、これらのツールが国際機関でどのように使用されるかなど、人工知能技術の進歩がもたらす多大な影響に取り組んでいます。

バージニア大学データサイエンス学部の助教授であるアーロン・マーティンは、最近、この重要なテーマについての洞察を共有するために招待されました。ワシントンの世界銀行で開催され、欧州データ保護監督官と共催したデータ保護に関する国際機関ワークショップで。今年の集会は、この会議がヨーロッパ以外で開催されたのは初めてでした。

UVA のメディア研究学科との兼務で 2023 年にデータ サイエンス学部に着任したマーティン氏は、データ ガバナンスと、特にテクノロジーに関連した国際機関による国境を越えた政策の確立方法を専門としています。

パネルディスカッションでマーティン氏は、世界の機関がデータ保護に関して直面している課題と、それらの課題に取り組むことがなぜ重要なのかについての考えを共有しました。

彼は最近、カンファレンスでの自身の経験と、この急速に進化する世界的問題のさまざまな側面についての見解について語った。

あなたのパネルは国際機関による AI 利用に焦点を当てていました。大まかに言って、これらの機関で AI システムがどれほど広く使用されているかについてどのような印象をお持ちですか?

敢えて言うなら、ワシントンDCでのワークショップに参加した人たちも含めて、彼らの使命と使命の点では非常に多様です。

その範囲は、開発や人道的使命を担う国連機関から、安全保障や法執行機関の国際的な協力を促進する NATO やインターポールのような組織まで多岐にわたります。各社ともさまざまな方法でAIの活用を模索しており、現状では慎重な姿勢をとっている印象であり、心強いです。

IO の重要な特徴は、いわゆる法的免除と特権を享受していることです。これらは、IO の独立性と効果的な機能を確保するのに役立ちます。これが実際に意味することは、データ保護に関する国内法や規制 (一般データ保護規則など) や AI (EU AI 法など) は、政府機関や営利企業とは異なり、IO には適用されないということです。

これは本当のガバナンス問題になります。IO がデータを処理し、責任を持って新しいテクノロジーを使用していることをどのように確認するのでしょうか?これらの組織のほとんどは、プライバシーに関するポリシーを確立しており、しかし、AI は取り組む必要のある新たな課題をもたらします。このワークショップの目的は、各組織が協力してデータ、さらには AI に関する適切なガイダンスと実践方法を開発することです。

議論の一部は、これらのシステムのリスクに焦点を当てました。国際機関は、その活動によって影響を受ける多くの関係者に対する AI のリスクを軽減することに関して何を優先すべきでしょうか?

最近、質の高いデータの新しいソースへのアクセスという点で AI 企業が直面している課題に関するニュース報道を目にして印象に残りました。AI モデルにますます多くのデータが供給されなければ、AI モデルの有用性や信頼性が低下するのではないかという不安が高まっています。私の共同パネリストの 1 人が表現したように、これらのモデルは「飢えている」のです。AI モデルがあまりにも多くの合成 (つまり、偽の) データや AI 生成データでトレーニングされると崩壊し始めるのではないかという懸念があるため、AI 企業は新しいデータ パートナーを争っています。

ワークショップでは、IO が AI 企業とデータを過剰に共有することによるさまざまなリスクについての意識を高めることに集中して介入しました。IO は、開発指標、世界紛争、人道問題など、信じられないほど豊富で多様なデータを持っています。

また、オンラインで過小評価されている世界の地域のデータも保有しており、AI 企業は通常、そこからデータを収集します。IO は、このデータの機密性を確保し、悪用や有害な AI ビジネス モデルからデータを保護するための措置を講じる方法について慎重に検討する必要があります。

あなたが言及したように、国際機関は一枚岩ではなく、あなたのパネルの聴衆は多様なグループの代表者で構成されていました。さまざまなタイプの国際機関は、その使命に基づいて、これらの問題についてどの程度異なる考え方をすべきでしょうか?

共通の課題がいくつかあります。たとえば、すべての IO には人事部門があるため、エンタープライズ アプリケーションは他の組織と同様に IO 内に存在します。そして、ほとんどではないにしても、多くの IO は、生成 AI を含む AI ツールの使用を形作り、場合によっては制限する重要な予算上の考慮事項を抱えています。

研究も含めて私が特に興味があるのは、人道支援活動家による AI の使用が援助の受取人、いわゆる受益者にどのような影響を与えるかということです。たとえば、IOは食糧援助を誰が受け取るかについての決定をAIのみに依存すべきでしょうか?そうすることにはどのようなリスクがありますか?これらは、これらの決定によって直接影響を受けるステークホルダーを含む、さまざまなステークホルダーとの関与を必要とする難しい質問です。

あなたは、歴史的に疎外されてきたコミュニティ、特に難民に対するテクノロジーの影響を調べる多くの研究を行ってきました。特に人道団体と AI に関して、最大の懸念は何ですか?

人道団体は一般に、AI へのアプローチについてかなり慎重になっています。「デジタルに危害を与えない」が彼らの信条であり、AI が紛争や危機の影響を受ける難民やその他の人々に与える可能性のある潜在的および実際の危害に非常に敏感であることを意味します。

私は、援助分野で「AI スネークオイル」と呼ばれるものや、誇大広告をまったく実現できないテクノロジーを組織に販売されているのではないかと懸念しています。これらの組織との関わりを継続し、可能性とリスクを理解してもらうことが重要です。

あなたのパネルの他の講演者やカンファレンスで聞いた他の講演者から得た主なポイントは何ですか?

まあ、チャタムハウスルールなのでここは気をつけないといけないのですが、IOが組織にAIを導入しようとしている戦略的思考にはかなり感銘を受けました。私は他のカンファレンスに参加したことがありますが、そこでは人々が無分別に AI のユースケースを漁っているように感じられましたが、それはたいてい間違ったアプローチです。

別のパネリストは、組織が文書化に AI をどのように使用しているかを説明しました。これは魅力的なアプリケーションであり、AI が世界にプラスの影響を与える可能性を物語っています。

引用:Q&A: 教授が国際機関が AI とデータ保護で直面するリスクについて語る (2024 年 9 月 30 日)2024 年 9 月 30 日に取得https://techxplore.com/news/2024-09-qa-professor-discusses-international-ai.html より

この文書は著作権の対象です。個人的な研究や研究を目的とした公正な取引を除いて、書面による許可なく一部を複製することができます。コンテンツは情報提供のみを目的として提供されています。