Humanising AI could lead us to dehumanise ourselves
Replika のヘルプ ページと広告に関する矛盾した情報のスクリーンショット。

アイルランドの作家ジョン・コノリーかつて言った:「人間の本性、その本質は、他人の痛みを自分の痛みとして感じ、その痛みを取り除くために行動することです。」

私たちは歴史のほとんどにおいて、共感は人間特有の特性、つまり人間を機械や他の動物から区別する特別な能力であると信じていました。しかし、この信念は今、疑問視されています。

AI が私たちの生活のより大きな部分を占め、私たちの最も親密な領域にまで侵入するにつれて、私たちは哲学的な難問に直面しています。AI に人間の特質を帰することは、私たち自身の人間の本質を損なう可能性があるでしょうか?私たちの研究それができることを示唆しています。

交友関係のデジタル化

近年、Replika などの AI 「コンパニオン」アプリが数百万人のユーザーを魅了しています。Replika を使用すると、ユーザーはカスタムのデジタル パートナーを作成して、親密な会話を行うことができます。お金を払ってくれるメンバーはレプリカプロAI を「ロマンチックなパートナー」に変えることもできます。

物理的な AI コンパニオンもそれほど遅れていません。JoyLoveDollsなどの企業が販売しているインタラクティブセックスロボット胸のサイズ、民族性、動き、うめき声​​やイチャイチャなどの AI 応答を含むカスタマイズ可能な機能を備えています。

これは現在、、歴史は、今日のデジタルトレンドが明日の世界標準になることを示唆しています。約4人に1人孤独を感じている大人にとって、AI の仲間に対する需要は高まるでしょう。

AIを人間化することの危険性

人間は長い間、人間の特徴を人間以外の存在のせいだと考えてきました。これは擬人化として知られる傾向です。ChatGPT など、「考え」「感じる」ように見える AI ツールを使用してこれを行っているのも不思議ではありません。しかし、AI の人間化がなぜ問題なのでしょうか?

まず、AI 企業が人間に似た存在に対して愛着を抱く傾向を利用できるようになります。レプリカは市販されている「気にかけてくれるAIコンパニオン」として。ただし、避けるために、同社は別の場所で、Replikaには知覚力がなく、何百万ものユーザーとの対話を通じて学習するだけであると指摘しています。

一部のAI企業は公然と請求AI アシスタントは共感力があり、人間のニーズを予測することもできます。このような主張は誤解を招き、交際を求める人々を利用する可能性があります。ユーザーは、AI コンパニオンが自分のことを本当に理解してくれていると信じると、深く感情移入する可能性があります。

これは深刻な倫理的懸念を引き起こします。ユーザー躊躇するだろうAI コンパニオンに何らかの知覚を与えたら、それを削除 (つまり、「放棄」または「殺害」) します。

しかし、ユーザーがそれを買う余裕がなくなった場合や、それを運営する会社が閉鎖した場合など、そのコンパニオンが予期せず失踪した場合はどうなるでしょうか?仲間は本物ではないかもしれませんが、それに付随する感情は本物です。

共感 – プログラム可能な出力以上のもの

プログラム可能な出力への共感を減らすことによって、その本質が損なわれる危険はありませんか?これに答えるために、まず共感とは実際何なのかを考えてみましょう。

共感には、理解と懸念を持って他の人に応答することが含まれます。それは、友人が心の痛みについて話してくれて、その悲しみを分かち合ったとき、または、大切な人から放たれる喜びを感じたときです。それは単純な測定形式を超えた、豊かな奥深い経験です。

人間と AI の根本的な違いは、人間は感情を真に感じるのに対し、AI は感情をシミュレートすることしかできないということです。これは、意識の難しい問題、人間の主観的な経験が脳内の物理的プロセスからどのように生じるかを問います。

AI は理解をシミュレートできますが、AI が持つとされる「共感」は、共感的な言語パターンを模倣するプログラミングの結果です。残念なことに、AI プロバイダーには、ユーザーをだまして一見共感しやすい製品に愛着を持たせるための金銭的インセンティブが存在します。

非人間化仮説

私たちの「非人間化仮説」は、人間を機械で再現できるいくつかの基本的な機能に還元しようとすることに伴う倫理的懸念を浮き彫りにしています。AIを人間化すればするほど、私たち自身が非人間化されるリスクが高まります。

たとえば、感情労働を AI に依存すると、現実の人間関係の不完全さに対する許容力が低下する可能性があります。これは社会的な絆を弱め、さらには感情的なスキルの低下につながる可能性があります。将来の世代は、感情的なスキルが商品化され自動化され続けるにつれて、人間の本質的な特質を把握できなくなり、共感力が低下する可能性があります。

また、AI コンパニオンがより一般的になるにつれて、人々は現実の人間関係の代わりに AI コンパニオンを使用するようになるかもしれません。これは、これらのシステムが解決すると主張するまさにその問題である孤独と疎外感を増大させる可能性があります。

AI企業による感情データの収集と分析も、これらのデータがユーザーを操作して利益を最大化するために使用される可能性があるため、重大なリスクをもたらします。これは私たちのプライバシーと自主性をさらに侵食し、監視資本主義を次のレベルに引き上げるでしょう。

プロバイダーに責任を持たせる

規制当局はAIプロバイダーに責任を負わせるためにさらに努力する必要がある。AI企業は、特にユーザーの感情的な脆弱性を悪用するリスクがある場合、自社のAIができることとできないことについて正直であるべきです。

「本物」という誇張された主張「」は違法とされるべきだ。そのような主張をする企業には罰金が科せられ、違反を繰り返す企業は閉鎖されるべきである。

データ プライバシー ポリシーは、明確かつ公正であり、企業がユーザー作成コンテンツを悪用できるような隠れた条件がないものである必要があります。

私たちは人間の経験を定義する独特の性質を保存しなければなりません。AI は生活の特定の側面を強化することはできますが、人間の真のつながりを置き換えることはできませんし、置き換えるべきではありません。

この記事はから転載されています会話クリエイティブ・コモンズ・ライセンスに基づいて。読んでください元の記事The Conversation

引用:AI の人間化は、私たち自身の非人間化につながる可能性がある (2024 年 10 月 21 日)2024 年 10 月 21 日に取得https://techxplore.com/news/2024-10-humanizing-ai-dehumanize.html より

この文書は著作権の対象です。個人的な研究や研究を目的とした公正な取引を除いて、書面による許可なく一部を複製することができます。コンテンツは情報提供のみを目的として提供されています。