ai
クレジット: CC0 パブリック ドメイン

生成型人工知能技術に対する懸念成長しているようですテクノロジー自体の普及とほぼ同じ速さです。これらの懸念は、これまでに見たことのない規模で偽情報が拡散する可能性についての不安と、雇用の喪失、創造的な作品に対するコントロールの喪失、そしてより未来的には、AI が人類の絶滅を引き起こすほど強力になるのではないかという不安によって引き起こされています。。

この懸念から、AI技術を規制するよう求める声が高まっている。一部の政府は、たとえば、欧州連合などの国は規制を求める国民の要求に応えてきたが、英国やインドなど一部の国はより自由放任的なアプローチをとっている。

米国では、ホワイトハウスが 2023 年 10 月 30 日に「安全、安心、信頼できる人工知能」と題する大統領令を発行しました。AI テクノロジーによる当面のリスクと長期的なリスクの両方を軽減するためのガイドラインを定めています。たとえば、AI ベンダーに対し、安全性テストの結果を企業と共有するよう求めています。そして、AI技術が入手できる限り多くのデータを吸収することに直面して、消費者プライバシー法を制定するよう議会に求めています。

AI を規制しようとする動きを考慮すると、どのような規制アプローチが実現可能かを検討することが重要です。この質問には 2 つの側面があります。1 つは今日技術的に実現可能なもので、もう 1 つは経済的に実現可能なものです。両方を見ることも重要ですそれは AI モデルとそのモデルの出力に反映されます。

1. 著作権を尊重する

AI を規制する 1 つのアプローチは、トレーニング データを、AI 企業が使用許可を確保したパブリック ドメインの素材および著作権で保護された素材に限定することです。AI 企業は、トレーニングに使用するデータ サンプルを正確に決定でき、許可された素材のみを使用できます。これは技術的に実現可能です。

部分的には経済的に実現可能です。AI が生成するコンテンツの品質は、トレーニング データの量と豊富さに依存します。したがって、AI ベンダーにとって、使用許可を受けたコンテンツに限定する必要がないことは、経済的に有利です。それにもかかわらず、今日、生成 AI の一部の企業は、使用許可を得たコンテンツのみを使用していることを販売可能な機能として宣言しています。一例として、Adobe のホタル画像生成器

バイデン政権の人工知能に関する大統領令はいくつかの重要な基準を定めているが、AIを規制する仕事のほとんどは議会と州に委ねられている。

2. 学習データ作成者への属性出力

AI テクノロジーの成果物を特定のクリエイター (アーティスト、歌手、作家など) またはクリエイターのグループに帰し、報酬を受け取ることは、生成型 AI を規制するもう 1 つの潜在的な手段です。ただし、使用される AI アルゴリズムの複雑さにより、出力がどの入力サンプルに基づいているかを言うのは不可能。たとえそれが可能だったとしても、各入力サンプルが出力にどの程度寄与したかを判断することは不可能です。

帰属は、クリエイターまたはその作品のライセンス所有者が AI テクノロジーを受け入れるか戦うかを決定する可能性があるため、重要な問題です。ハリウッドの脚本家たちの148日間のストライキとその結果彼らが獲得した譲歩AI からの保護がこの問題を浮き彫りにしているためです。

AIの出力側におけるこの種の規制は技術的に実現不可能だと私は考えています。

3. 人間が生成したコンテンツと AI が生成したコンテンツを区別する

AI テクノロジーに関する当面の懸念は、自動的に生成される偽情報キャンペーンが展開されることです。これはすでにさまざまな範囲で起こっています。たとえば、ウクライナ・ロシア戦争中の偽情報キャンペーン。これは、信頼できるニュースソースを通じて国民に情報を提供することに依存する民主主義にとって重要な懸念事項です。

AI が生成したコンテンツと人間が生成したコンテンツを区別できるテクノロジーの開発を目的としたスタートアップ分野で多くの活動が行われていますが、現時点ではこのテクノロジーは生成AI技術に遅れをとっている。現在のアプローチは、生成 AI のパターンを特定することに焦点を当てていますが、生成 AI はほぼ当然のことながら、負け戦を繰り広げています。

AI が生成したコンテンツと人間が生成したコンテンツを区別できるかどうかは非常に重要です。

出力側でもある AI を規制するこのアプローチは、技術的に現時点では実現不可能ですが、この面で急速な進歩が見込まれる可能性があります。

4. AI企業への出力の帰属

AI によって生成されたコンテンツは、特定の AI ベンダーのテクノロジーからのものであると考えることができます。これは、よく理解され成熟したテクノロジーを通じて実現できます。暗号署名。AI ベンダーはシステムからのすべての出力に暗号署名を行うことができ、誰でもその署名を検証できるようになります。

このテクノロジは、基本的な計算インフラストラクチャにすでに組み込まれており、たとえば、Web ブラウザが接続先の Web サイトを検証するときに使用されます。したがって、AI企業はそれを簡単に導入できます。署名が検証できる少数の大手大手ベンダーのみが提供する AI 生成コンテンツに依存することが望ましいかどうかは別の問題です。

したがって、この形式の規制は技術的にも経済的にも実現可能です。この規制は、AI ツールの出力側を対象としています。

政策立案者にとって、各形態の規制によって起こり得るコストと利点を理解することが重要となる。しかし、まず最初に、これらのうちどれが技術的および経済的に実現可能であるかを理解する必要があります。

この記事はから転載されています会話クリエイティブ・コモンズ・ライセンスに基づいて。読んでください元の記事The Conversation

引用:AI を抑制するということは、どの規制オプションが技術的にも経済的にも実現可能かを理解することを意味します (2024 年 1 月 18 日)2024 年 1 月 18 日に取得https://techxplore.com/news/2024-01-reining-ai-figuring-options-feasible.html より

この文書は著作権の対象です。個人的な研究や研究を目的とした公正な取引を除き、書面による許可なく一部を複製することができます。コンテンツは情報提供のみを目的として提供されています。