それは学年の始まりであり、したがって、新鮮なラウンド談話学校における生成型 AI の新しい役割について。約 3 年の間に、エッセイはあらゆる教室での教育の主流から、はるかに役に立たないツールへと変わってしまいました。その理由の 1 つは、ChatGPT です。小論文に ChatGPT を使用する学生の推定数変化する、しかしそれは十分にありふれたことです教師に適応を強制する

生成 AI には多くの制限がありますが、学生のエッセイは彼らが非常に得意とするサービスのカテゴリーに分類されます。トレーニング データには、割り当てられたトピックに関するエッセイの例が多数あり、膨大な量のエッセイが必要です。学生のエッセイの散文の質や独自の研究の基準はそれほど高くありません。

サインアップここ世界が直面する大きくて複雑な問題と、それらを解決するための最も効率的な方法を探求します。週に2回送信されます。

現時点では、AI ツールを使用したエッセイの不正行為を捕まえるのは困難です。多くのツールは、テキストが AI によって生成されたものであることを検証できると宣伝していますが、実際にはあまり信頼性がありません。以来学生を盗作で不当に告発するこれは重要なことですが、これらのツールが機能するには非常に正確である必要がありますが、実際にはそうではありません。

AI テクノロジーによるフィンガープリンティング

しかし、ここには技術的な解決策があります。2022 年、量子コンピューティング研究者が率いる OpenAI のチームスコット・アーロンソンは、エンド ユーザーがあちこちでいくつかの単語を変更したり、テキストを並べ替えたりした場合でも、AI テキストを事実上見間違えることのないようにする「透かし」ソリューションを開発しました。この解決策は技術的に少し複雑ですが、非常に興味深いものでもあるので、我慢してください。

AI テキスト生成の基本的な仕組みは、これまでのテキストに表示されている内容に基づいて、次に考えられるトークンを AI が「推測」することです。過度に予測可能になりすぎず、同じ反復的な出力を常に生成しないように、AI モデルは最も可能性の高いトークンを推測するだけではなく、ランダム化の要素を組み込み、「より可能性の高い」完了を優先しますが、場合によっては可能性の低いものを選択します。

この段階では透かしが機能します。AI にランダムな選択に従って次のトークンを生成させる代わりに、AI に非ランダムなプロセスを使用させます。つまり、OpenAI が発明した内部の「スコアリング」関数で高いスコアを獲得した次のトークンを優先します。たとえば、文字 V を持つ単語がわずかに優先されるため、このスコアリング ルールで生成されたテキストには通常の人間によるテキストよりも V が 20% 多く含まれることになります (ただし、実際のスコアリング関数はこれより複雑です)。読者は通常、これに気づきません。実際、私はこのニュースレター内の V の数を増やすために編集しましたが、私の通常の文章のこのバリエーションが目立つとは思えません。

同様に、透かし入りのテキストは、一見したところ、通常の AI 出力と変わりません。しかし、秘密のスコアリング ルールを知っている OpenAI にとって、特定のテキスト本文がその隠れたスコアリング ルールで人間が作成したテキストよりもはるかに高いスコアを獲得するかどうかを評価することは簡単です。たとえば、スコアリング ルールが文字 V に関する上記の例である場合、このニュースレターを検証プログラムで実行すると、1,200 単語に約 90 個の V が含まれていることがわかります。これは、V の頻度に基づいて予想されるよりも多いです。は英語で使われます。これは難しい問題に対する賢明で技術的に洗練されたソリューションであり、OpenAI は実用的なプロトタイプを持っています。2年

したがって、AI テキストが人間の書いたテキストになりすます問題を解決したい場合、それは非常に解決可能です。しかし、OpenAI はウォーターマーク システムをリリースしておらず、業界の他の誰もリリースしていません。なぜだめですか?

すべては競争です

OpenAI (OpenAI のみ) が ChatGPT 用の透かしシステムをリリースし、生成 AI がいつテキストを生成したかを簡単に判断できるようにしたとしても、これは学生のエッセイの盗作にはまったく影響を与えないでしょう。Word はすぐに世に出て、誰もが現在利用できる数多くの AI オプションの 1 つに切り替えるだけです。メタのラマ、人類のクロード、グーグルのジェミニなどです。盗作は衰えることなく続き、OpenAI は多くのユーザーベースを失うことになるだろう。したがって、彼らが透かしシステムを秘密にしておくことは驚くべきことではありません。

このような状況では、規制当局が介入するのが適切であるように思われるかもしれません。すべての生成 AI システムに透かしを入れる必要があるとしても、それは競争上の不利にはなりません。これは、カリフォルニア州議会で今年提出された法案の背後にある論理です。カリフォルニアのデジタルコンテンツの出所基準これにより、生成 AI プロバイダーは、AI で生成されたコンテンツを検出可能にすることが要求されるとともに、生成 AI にラベルを付けて不正なコンテンツを削除することが要求されます。OpenAIは賛成彼らは、これを行うシステムを持っていることが知られている唯一の生成 AI プロバイダーであるため、驚くことではありません。彼らのライバルはほとんどが反対している。

私は生成 AI コンテンツに対してある種の透かし要件を広く支持しています。AIはできる信じられないほど役に立つしかし、その生産的な用途には、人間が作成したふりをする必要はありません。そして、新聞社が私たちジャーナリストを AI に置き換えることを禁止するのは政府の立場だとは思いませんが、新聞社が読者に、読者が読んでいるコンテンツが正しいかどうかについて誤った情報を与えることは絶対に望みません。本物の人間によって作成された

何らかの電子透かしを義務付けたいと思っていますが、実装できるかどうかはわかりません。これまでにリリースされた最高の「オープン」AI モデル (最新の Llama など) は、自分のコンピューター上で実行できるモデルであり、非常に高品質であり、学生の作文には確かに十分です。これらはすでに存在しており、将来のバージョンでどのような更新が適用されても、誰でも現在のバージョンを実行できるため、戻って透かしを追加する方法はありません。(これは、私がオープン モデルに対して複雑な感情を抱いている多くの理由の 1 つです。オープン モデルは膨大な量の創造性、研究、発見を可能にしますが、また、常識的なあらゆる種類の偽装防止や不正行為の防止も不可能にします。児童性的虐待防止素材そうでなければ私たちが本当に望んでいるであろう措置。)

したがって、たとえ透かしを入れることが可能であっても、それを当てにできるとは思えません。つまり、AI によって生成された簡単なコンテンツの普及に社会としてどのように対処するかを考え出す必要があるということです。教師たちはすでに、生徒の不正行為を減らすために、授業内での作文の義務化やその他のアプローチに切り替えている。大学入学のためのエッセイも同様に廃止される可能性が高い。そして、正直に言うと、それはおそらく良い撲滅になるだろう。学生を選ぶのに決して良い方法ではない

しかし、私は大学入学試験の小論文についてあまり嘆くことはありませんし、教師は生徒を評価するより良い方法を見つける能力が高いと思いますが、全体の物語にはいくつかの問題的な傾向があることに気づきました。なりすましや盗作などの明らかな欠点を持たずに AI の利点を活用できる簡単な方法がありましたが、AI の開発があまりにも急速に進んだため、社会は多かれ少なかれその機会を見逃してしまいました。個々の研究室がそれを行うこともできますが、それは競争上不利な立場に置かれるため、実行されません。また、全員にそれを実行させるための良い方法は存在しそうにありません。

学校での盗作に関する議論では、賭け金は低い。しかし、AI透かしの議論にも同じ力学が反映されており、商業的インセンティブによって企業の自主規制が妨げられ、変化のスピードによって外部規制当局の介入が手遅れになるまで阻止されるという問題が、今後も争点として残りそうだ。より高くなります。