law
クレジット: Unsplash/CC0 パブリック ドメイン

Maura R. Grossman、法学博士、博士は、チェリトン スクール オブ コンピュータ サイエンスの研究教授であり、ウォータールー大学公衆衛生科学部に兼任されており、オズグッド ホール ロー スクールの非常勤教授であり、提携教員でもあります。ベクトル人工知能研究所のメンバー。彼女は、ニューヨーク州バッファローにある電子情報開示法律およびコンサルティング会社である Maura Grossman Law のプリンシパルでもあります。

マウラは、技術支援レビュー (TAR) の研究で広く知られています。TAR は、彼女と彼女の同僚であるチェリトン コンピュータ サイエンス スクール名誉教授のゴードン V. コーマックが、一か八かの文書レビューを迅速化するために開発した教師あり機械学習手法です。訴訟や証拠に基づいた医療の系統的レビューにおいても活躍します。

最近では、マウラは生成 AI が社会に及ぼす影響に注意を向けています。。彼女は、元地方判事のポール W. グリム氏、チェリトン コンピュータ サイエンス スクールのダン ブラウン教授、学部研究助手のモリー シュー氏とともに、「」というタイトルの論文を共著しました。GPT ジャッジ: 生成 AI 世界での正義」は、生成 AI がベンチとバーにもたらす新たな課題を概説しています。

以下は、この論文で議論されている問題をより深く探求する Q&A インタビューを軽く編集した書き起こしです。

生成人工知能とは何ですか?

Generative AI (または GenAI) は、人間が提供するプロンプトに応答して新しいコンテンツを作成する人工知能の特定のサブセットです。プロンプトは出力と同様にマルチモーダルにすることができます。質問を入力してテキストの回答を取得することも、入力と出力の両方に使用されるシステムに応じて、音声クリップ、画像、ビデオなどの任意の組み合わせを作成することもできます。

GenAI が作成するコンテンツは、人間が作成したコンテンツと区別することがますます困難になっています。生成されたテキストは読みやすく、写真も本物らしく、サウンドはリアルで、ビデオは説得力があるように見えます。

おそらく、さまざまな GenAI システムの中で最もよく知られているのは、2022 年 11 月に OpenAI によってリリースされた、流暢なテキストを生成する大規模言語モデル (LLM) に基づいたチャットボットである ChatGPT です。ChatGPT は、誰かが連続して質問し、それに対して人間のような応答を返す、対話形式の会話を実行できます。

また、ユーザーは ChatGPT に宿題の草稿を依頼して、履歴書をより簡潔かつプロフェッショナルなものにすることもできます。また、特定の仕事について説明し、チャットボットに履歴書をその仕事の特定の要件に合わせて調整するように依頼することもできます。同様に、ChatGPT に、本の章の要点を 8 歳児が理解できる言語で要約するように依頼することもできます。あるいは、エミネムのスタイルでテイラー・スウィフトについてのラップソングを書くこともできます。ChatGPT は、これらのタスクの一部またはすべてを非常にうまく実行できます。

また、ChatGPT は、特定のスタイルやトーンの複製など、特定のガイドラインに従ってコンテンツを生成します。これが、ChatGPT の出力と人間の出力を区別することがますます困難になっている理由の 1 つです。

これらの生成 AI モデルはどのように機能するのでしょうか?

LLM は、確率と統計を使用して、トレーニング データ (ほとんどの場合、インターネットから収集したコンテンツ) に基づいて、応答内の最も可能性の高い次の単語を予測します。モデルは、特定のトピックに関する何千もの文例を確認することができ、モデルが提供する出力は、最も一般的に書かれた内容に基づいています。それは正確であるか、偏っているか、完全に間違っている可能性がありますが、LLM はトレーニング データ内で最も一般的に言われている内容を探し、それを再現します。

多くの画像ベースの GenAI ツールは、互いに競合する 2 つのアルゴリズムを使用してトレーニングされます。このプロセスは 2017 年に開発され、「敵対的生成ネットワーク」または「GAN」と呼ばれます。

生成ネットワークはコンテンツを作成しますが、差別ネットワークはそのコンテンツを批判し、実際のコンテンツと比較します。生成アルゴリズムは、判別アルゴリズムからより多くのフィードバックを得るにつれて改善されます。これら 2 つのネットワークは連携して動作し、弁別器が改善されるとジェネレーターも改善されます。

GenAIが進歩するにつれて、どの出力がGenAIによって作成されたのか、何が人間によって作成されたのかを知ることが難しくなります。実際のコンテンツと生成されたコンテンツの間、真実と虚偽の間、事実とフィクションの間の境界線があいまいになります。これは司法制度に重大な影響を及ぼします。

AI の証拠は法廷で認められますか?

あなたの質問に答えるために、最初に少し話を戻させてください。AI の証拠は、ほとんどの証拠と同じ課題に直面していますただし、その基盤となっているテクノロジーは裁判官や陪審の判断の範疇を超えている可能性があるため、当事者はそれを評価し説明するために高価な専門家を雇わなければならない可能性があります。

警察官がドライバーの速度を評価するためにレーダー銃を使用する場合、私たちはそのテクノロジーについて十分に知っているので、スピード違反切符を争う事件では通常、レーダーの専門家に装置の仕組みや装置が有効で信頼できるかどうかを説明してもらう必要はありません。しかし、AIのような新しいテクノロジーの場合はそうではありません。

たとえば、人事担当者が AI を使用して、ポジションを得るために誰を面接するかを決定したところ、除外された人々の大多数が特定の人種または民族グループに属していると思われるとします。これが裁判になった場合、人事専門家の雇用主はおそらくシステムの開発者を呼んで、AIモデルがどのようにトレーニングされたのか、どのようなアルゴリズムが使用されたのか、どのようなトレーニングデータが使用されたのか、どのようにテストされ検証されたのかなどを説明する必要があるだろう。この制度が差別的ではないことを示すために。

この例では、法廷に提出された証拠が本物であるか偽物であるかに疑問の余地はありません。問題は、AI が有効で信頼性が高く、偏りがなく、意図したとおりに動作するかどうかを確認するのに十分なテストと検証が行われているかということです。それはおそらく、対処するのが最も簡単な問題です。私たちは AI が正常に動作しているかどうかを判断しようとしていますが、これは他の技術的または科学的証拠と何ら変わりません。私たちはすでにそのための法的ツールを持っています。

私たちが新たな課題に直面しているのは、AI によって生成された本物ではないコンテンツであるディープフェイクです。偽造やその他の捏造された証拠のケースは常にありましたが、テクノロジーの進歩により、ディープフェイクの明らかな兆候(たとえば、手の指が 6 本であるなど)がもはや存在しないため、現在はまったく異なるレベルで活動しています。とても改善されました。

ディープフェイクの疑いのある証拠資料があれば、関係者はおそらくAIフォレンジックの専門家を呼び込む必要があるだろう。したがって現在、裁判所は、例えば、裁判官や陪審が責任を判断するために特定の機械や装置の動作を理解する必要がある複雑な製造物責任訴訟を扱っているだけでなく、事実証拠そのものの信憑性が疑問視されることになるだろう。。

たとえば、上司が私に虐待的または不適切なボイスメール メッセージを残した、と私が主張しているとします。ここに、出来事がまさに私が言っているとおりに起こったことの証拠として彼が残したメッセージの録音の例を示します。録音が私の上司の声である可能性が高いことを証明できれば、証拠は得られるでしょう。

しかし現在では、上司は私がボイスメールメッセージを捏造したと主張する可能性があり、裁判所は証拠が本物か偽物かを判断する必要があるため、ほぼすべての事件で専門家が必要になる可能性がある。

GenAI は司法制度に新たな課題をもたらしますか?

はい、GenAI ではまったく別の問題が発生します。ディープフェイクとされる証拠が民事裁判と刑事裁判で認められるべきかどうかを判断する必要がある。裁判官や陪審が事件の判決を下す際にその証拠を考慮できるかどうかは大きな違いを生みます。

司法制度(少なくとも私が最もよく知っている米国の制度)の課題の 1 つは、許容性の基準が低いことです。証拠は単に「優勢基準」を満たしている必要があります。つまり、証拠は私が言うとおりである可能性が高く、その確率はコイン投げの確率よりわずかに高いことを意味します。

ディープフェイクの証拠があれば、それは非常に低いハードルです。誰かが法廷であなたの声の録音を再生することができます。私はあなたと何度も話しており、あなたの声を認識しているので、録音されているのがあなたであることを証言できます。このような証拠が米国の法廷で認められるには、これで十分だ。しかし、あなたがそう言っているように聞こえるからといって、その録音が実際にあなたが言ったことを意味するわけではありません。AI 音声クローン ツールを使えば、誰でも数分で無料で自分に似た音声クリップを生成できます。これが問題です。

法廷でますます明らかにされるこの新しい種類の証拠に関して、現在の証拠規則と米国およびカナダの司法制度の構造の間には完全な適合性はありません。あなたはこれが本物の音声録音だと言いますが、私はそうではないと言います。それはディープフェイクです。「嘘つきの配当」と呼ばれるこの弁護は、ますます頻繁に行われるだろう。今ではあらゆるものに、もっともらしい否定の可能性が生じています。

被告の弁護士が、私の携帯電話に(電子日付とタイムスタンプによると、「メタデータ」と呼ばれる)不快なボイスメールメッセージが残されていた当時、私の上司が開胸手術を受けていたことを証明できれば、被告が開胸手術を受けていた可能性は低い。ボイスメールの中の人は彼でした。主張に異議を唱えるにはこれで十分なはずですが、証拠にメタデータがなかったり、メタデータが何らかの方法で変更されたりした場合はどうなるでしょうか?

証拠は誰でも偽物であると主張できるため、ディープフェイクとされる証拠は他の要件を満たしている必要があります。ディープフェイクの擁護を主張する人は、その証拠が実際にディープフェイクであることを示す何らかの量的証拠を示さなければならないだろう。ディープフェイクがいかに説得力があるかを考えると、これは非常に難しいことかもしれません。この問題は突飛な話のように思えるかもしれないが、1月6日の連邦議会議事堂襲撃に関与した人物らは、自分たちに対して提供されたソーシャルメディアや監視ビデオに映っている人物は実際には自分ではないと主張した。

音声や映像の証拠を操作したり生成したりすることがいかに簡単かを人々がより認識するようになると、被告はその懐疑を自分たちの利益のために利用するようになる。

連邦証拠規則 403 として知られる米国の証拠規則があり、ディープフェイク疑惑の文脈で役立つ可能性のある一般的なガイダンスを弁護士や裁判官に提供していますが、証拠規則は特定の種類の技術的証拠のために設計および公布されていません。この規則は、不当に不利な点、混乱を招く可能性、または誤解を招く可能性のある証拠の証拠能力を否定するために、慎重かつまれに使用されてきました。

私の共著者と私は、そのルールの厳格な要件を緩和し、当事者が特定の証拠をディープフェイクとして異議を唱えるのに十分信頼できる証拠を提示できた場合、裁判官はその証拠が証明できる唯一の証拠であるかどうかを検討する必要があると主張してきました。主張と、他の要因を認めることがそれを上回るかどうか。他に裏付けとなる証拠はありますか?

他の時には、私の上司がボイスメールで言ったことを6人が聞いたことがありますか? それとも、その上司が他の従業員に送信された他の電子メールに同様のことを書いたことがありますか?もしそうなら、それは裁判所が利用できる唯一の証拠がディープフェイクの証拠であり、それが本物かどうかについて競合する事実がある場合とはまったく異なる事実セットになります。

ディープフェイクの可能性がある証拠の許容性を評価する場合、裁判官は、偽の証拠が陪審に提出されることを許可した場合に発生する可能性がある不当な偏見を避ける必要があります。私たちは、音声やビデオの証拠が人々の認識や記憶に強い影響を与えることを知っています。陪審員に視聴覚クリップを見せた場合、証人の調書を読んでもらう場合と比較して、陪審員が視聴覚クリップの内容を覚えている可能性が 650% 高くなります。

それがまさに人間の心の仕組みです。裁判所は、証拠が偽物であることが判明した場合に発生する可能性のある潜在的なリスク、悪影響、または問題のある結果を考慮する必要があります。もちろん、その影響は、少額のお金を失うことから、子供の親権や自由を失うことまで、あらゆるものになる可能性があります。

弁護士や訴訟当事者は ChatGPT を使用して裁判所への提出書類を準備できますか?

はい、そして過去 1 年間、弁護士とプロ訴訟人として知られる自称者の両方が、裁判所への提出書類を準備するために ChatGPT を使用しました。しかし、大きな問題の 1 つは、GenAI の幻覚傾向です。準備書面は、権威あるように聞こえるが事実ではなく、存在しない事件に言及した引用を含めて草案されています。これに対して、AIの使用の開示と提出者が引用された情報源を確認したことの証明を要求するという反応を示した司法当局が怯えています。

良い面としては、ChatGPT を使用すると、弁護士を雇う十分な手段を持たない訴訟当事者が法廷で訴訟を起こすことができるため、GenAI は司法へのアクセスを増やすことができます。単に弁護士を雇う余裕がない人、または他の理由で弁護士にアクセスできない人は、GenAI を使用して、自分の状況や管轄区域に合わせてカスタマイズされた法的書類を作成できるようになりました。

しかし、マイナス面としては、誰かが ChatGPT を使用して複数の人に対して何百件もの苦情を申し立て、法廷に殺到する可能性があるということです。悪意のある提出者は、全国の裁判所に同時に提出する準備を整え、重複した軽薄な提出書類を裁判所に殺到させることもあります。

裁判官とそのスタッフは研究や意見の草稿に GenAI を使用できますか?

これまでのところ、GenAI を使用して意見書を作成した裁判官が少なくとも 3 名いることを私たちは知っています。GPT-4 が米国の司法試験に合格したのに、何が問題なのかと思われるかもしれません。しかし、懸念されるのは、ChatGPT が同じ質問に対して異なる時点で異なる回答を提供する可能性があり、言うまでもなく完全に誤った情報を幻覚してしまう可能性があることです。

そもそも私たちには、人々が生きて息をしている人間の裁判官の前で法廷で過ごすことを保証する司法制度があります。弁護士や当事者に通知せず、記録に残っていない議論に異議を唱えたり、反論したりする機会を提供することなく、独立した調査に GenAI システムを使用すると、裁判所が証拠に残されていない情報源や他の問題を引き起こす情報源にさらされる可能性があります。適正手続きの問題。

したがって、現時点では、このツールは有用な補助手段となり得るものの、私の知る限り、米国とカナダの裁判所は意思決定や草案作成の目的で GenAI を使用することを控えています。

詳細情報:モーラ・R・グロスマン 他GPT ジャッジ: 生成 AI 世界での正義(2023年)

引用:Q&A: 生成人工知能の法的影響 (2024 年 4 月 17 日)2024 年 4 月 17 日に取得https://techxplore.com/news/2024-04-qa-legal-implications-generative-artificial.html より

この文書は著作権の対象です。個人的な研究や研究を目的とした公正な取引を除き、書面による許可なく一部を複製することができます。コンテンツは情報提供のみを目的として提供されています。