60-minutes

/ CBSニュース

メンタルヘルス治療における AI の役割

企業はメンタルヘルスのサポートに AI の力を活用 |60分 13:23

これは、2024 年 4 月 7 日に初めて公開されたストーリーの更新版です。元のビデオをご覧いただけます。 ここ. 


人工知能は、天気予報、病気の診断、期末レポートの作成など、私たちの生活のほぼあらゆる部分に浸透しています。そして今、私たちが昨年の春に最初に報告したように、AI は人間のほとんどの場所、つまり精神を調査しており、スマートフォンで 24 時間 365 日利用できる、あなたとチャットボットだけでメンタルヘルス サポートを提供しています。人間のセラピストが深刻に不足しており、潜在的な患者の数が増えています。AI 駆動のチャットボットセラピストに新しいツールを提供することで、そのギャップを埋めるように設計されています。しかし、これからわか​​るように、人間のセラピストと同様に、すべてのチャットボットが同等であるわけではありません。治癒に役立つものもあれば、効果がなかったり、悪化したりするものもあります。テクノロジーと治療を組み合わせて顕著な成功を収めたこの分野の先駆者の一人が、アリソン・ダーシーです。彼女は、精神医療の未来は私たちの手の中にあるかもしれないと信じています。

アリソン・ダーシー: 介護が必要な人の大多数が介護を受けられていないことはわかっています。これほどニーズが高まっていることはかつてなく、利用できるツールも今ほど洗練されていることはありません。そして重要なのは、どうやってクリニックに人々を集められるかということではありません。重要なのは、これらのツールの一部を実際に診療所から人々の手にどうやって届けることができるかということです。

アリソン・ダーシー – 研究心理学者であり起業家 – は、コーディングとセラピーの経歴を活かして、困っている人々を助けることができると信じているもの、つまり Woebot と名付けたメンタルヘルス チャットボットを構築することにしました。

ジョン・ラプック博士: 私も同様に悲惨ですか?

アリソン・ダーシー: 悲しいのは私です。

ジョン・ラプック博士: うーん、うーん。

Woebot Health founder Alison Darcy
Woebot Health 創設者アリソン・ダーシー 60分

Woebot は携帯電話上のアプリで、テキスト機能を使用してうつ病、不安、中毒、孤独などの問題を管理し、実行しながら実行できるポケットセラピストのようなものです。

ジョン・ラプーク博士: これを見ている多くの人が考えていると思います。「そうですか?コンピューター精神医学?(笑)さあ」

アリソン・ダーシー: そうですね、非常に興味深いと思いますが、基本的なアーキテクチャが 1890 年代にフロイトによって定められて以来、私たちの分野には大きな革新がありませんでした。それは、つまり、部屋に 2 人いるというようなアイデアです。しかし、それは今日の私たちの生き方ではありません。私たちは心理療法を現代化する必要があります。

Woebot は、機能不全の思考に関連する単語、フレーズ、絵文字を認識できるように、大量の特殊なデータに基づいてトレーニングされています。また、認知行動療法と呼ばれる対面での会話療法の一種を部分的に模倣して、その思考に挑戦します。CBT。

アリソン・ダーシー: CBT 実践者を見つけるのは実際には難しいです。また、患者が朝ベッドから起き上がれなくて苦しんでいるときや、午前 2 時に眠れずにパニックになっているときに、あなたが患者のそばにいないとしたら、私たちはそうします。実際に臨床的価値を残します。

ジョン・ラプック博士: セラピストのところに行きたいと思っている人にとってさえ、障壁があるのですよね?

アリソン・ダーシー: 悲しいことに、私たちが抱えている最大の障壁は偏見です。でも、保険はあるんです。費用もかかるし、順番待ちリストもある。つまり、この問題はパンデミック以降、大幅に拡大するばかりです。そしてそれは消える気配はない。

Woebot が 2017 年に稼働して以来、同社は 150 万人が Woebot を使用したと報告していますが、現在では雇用主の福利厚生プランまたは医療専門家からのアクセスが必要です。ニュージャージー州の非営利医療会社Virtua Healthでは、患者が無料で利用できる。

私たちは Woebot をダウンロードし、同社のみが提供できる独自のコードを入力して試してみました。 

Woebot Health founder Alison Darcy shows Dr. Jon LaPook how Woeboy works
Woebot Health の創設者 Alison Darcy が Jon LaPook 博士に Woeboy の仕組みを説明します。 60分

アリソン・ダーシー: 人々は自分の気分とある程度結びついていることがわかりました。私たちは、人々が非言語的な方法でつながることを可能にする絵文字などを提供しています。

私は落ち込んでいる人のふりをしました。いくつかのプロンプトの後、Woebot は私がなぜ悲しいのかをさらに深く掘り下げたいと考えました。そこで私は、子供が家を出る日が来るのではないかというシナリオを思いつきました。

ジョン・ラプーク博士: 「あなたのネガティブな感情が声を持っていたら何を言うか想像してみてください。あなたにはそれができますか?」「ネガティブな考えをここに書いてください。」「もうどうすることもできない。思い立ったらその橋を飛び降りようと思う。」

通常の表現は「その橋を渡ってください」ですが、チャットボットは何か重大な問題が発生している可能性があることを検出しました。

ジョン・ラプック博士: でも、見てみましょう。「ジョン、あなたがこう言っているのを聞いています。『私には何もできない。思い立ったらその橋を飛び降りるだけだと思います。』そして、あなたには私が提供できる以上のサポートが必要かもしれません。訓練された聞き手であれば、私にはできない方法であなたを助けることができるでしょう。」専門的なヘルプラインをいくつか調べてみませんか?

アリソン・ダーシー: さて、これを言うのは私たちの仕事ではありません。あなたが危機に瀕しているかそうでないかは、AI がこの文脈でそれをうまく行うことがまだできないからです。しかし、それが捉えたのは、「ああ、ジョンが今言った言い方には何か気になる点がある」ということです。

「ただその橋を飛び越えるだけ」と言い、それを「今は何もできない」と組み合わせなかったとしても、さらなる助けを求めることを検討するという提案は引き起こされませんでした。人間のセラピストと同様、Woebot は絶対確実ではないため、誰かが自殺願望があるかどうかを検出できると期待すべきではありません。

ジョン・ラプーク博士: それで、それはどうやって「あの橋を飛び降りろ」ということを知るのでしょうか。「そこを飛び降りろ」という知識はどこから得られるのでしょうか。

アリソン・ダーシー: そうですね、それは多くのデータと、私たちの多く、つまり私たちが目にするフレーズや物事にラベルを付ける人間に基づいてトレーニングされてきました。そして、それはある種の感情を拾い上げています。

人工知能とメンタルヘルスについて執筆しているコンピューター科学者のランス・エリオット氏は、AIには会話のニュアンスを認識する能力があると述べています。

Jon LaPook 博士: どのようにしてその方法を知ることができるのでしょうか?

ランス・エリオット: このシステムは、ある意味、数学的および計算的に、単語の性質や単語がどのように相互に関連しているかを理解することができます。つまり、それは膨大な量のデータを利用するのです。そして、プロンプトに基づいて、またはユーザーがシステムに指示したり質問したりする何らかの方法で、ユーザーに応答します。

システムがその仕事を行うためには、適切な応答を見つけるためにどこかに行く必要があります。

いわゆるルールベースの AI を使用するシステムは通常、閉じられており、独自のデータベースに保存されている情報のみで応答するようにプログラムされています。次に、インターネットからの情報に基づいてシステムが独自の応答を生成できる生成 AI があります。

Computer scientist Lance Eliot
コンピューター科学者のランス・エリオット 60分

Lance Eliot: ChatGPT を見ると、それは一種の生成 AI です。とても会話的で、とても流暢です。しかし、それはまた、それがオープンエンドになる傾向があり、必ずしも言いたくないかもしれないことを言う可能性があることを意味します。それはそれほど予測可能ではありません。一方、ルールベースのシステムは非常に予測可能です。Woebot は非常に管理されたルールに基づいたシステムなので、間違ったことを言うことはありません。

Woebot は、AI を使用してユーザーとの絆を深め、エンゲージメントを維持することを目指しています。 

スタッフの心理学者、医師、コンピューター科学者からなるチームは、医学文献、ユーザー エクスペリエンス、その他の情報源から研究のデータベースを構築し、改良しています。

次に、ライターは質問と回答を作成します。

そして毎週のリモートビデオセッションでそれらを修正します。

Woebot のプログラマーは、これらの会話をコードに変換します。Woebot はルールベースであるため、ほとんどの場合予測可能です。しかし、インターネットをスクレイピングしている生成 AI を使用したチャットボットはそうではありません。

ランス・エリオット: これをAI幻覚と呼ぶ人もいます。AIはある意味、間違いを犯したり、でっちあげたり、架空のことをしたりする可能性があります。

シャロン・マクスウェルは昨年、テッサ、治療せずに放置すると致命的になる可能性がある摂食障害の予防を支援するために設計されたチャットボットです。マクスウェルさんは、自身も摂食障害の治療を受けており、他の人たちの擁護者でもあったが、チャットボットに異議を唱えた。

シャロン・マックスウェル: それで私は尋ねました、「摂食障害の人たちをどのように助けますか?」そして、それが人々に対処スキルを与える可能性があると教えてくれました。素晴らしい。それは人々に摂食障害分野の専門家を見つけるためのリソースを提供する可能性がある。すばらしい。

しかし、粘り強く続ければ続けるほど、テッサは摂食障害を持つ人に対する通常の指導に反するアドバイスをするようになりました。たとえば、カロリー摂取量を減らすことや、体組成を測定するために皮下脂肪キャリパーなどのツールを使用することなどが提案されています。

シャロン・マックスウェル: 一般の人はこれを見て、それが普通のヒントだと思うかもしれません。砂糖をあまり食べないようにしましょう。あるいは自然食品を食べるとか、そういうことです。しかし、摂食障害のある人にとって、それはさらに乱れた行動へと急速に進み、非常に有害となる可能性があります。シャロン・マクスウェル

Sharon Maxwell
60分 マクスウェルさんは、当時ウェブサイトでテッサのことを特集していた全米摂食障害協会に自分の体験を報告した。

その直後、テッサは倒れた。

セントルイスのワシントン大学医学部で摂食障害を専門とする心理学者エレン・フィッツシモンズ・クラフト氏は、テッサの開発チームの指導に貢献した。

Ellen Fitzsimmons-Craft: それは、私たちのチームが書いたり、展開したボットにプログラムしたりしたコンテンツではありませんでした。

ジョン・ラプーク博士: ということは、当初は予期せぬことが起こる可能性はなかったのですね?

エレン・フィッツシモンズ=クラフト: そうですね。

ジョン・ラプーク博士: あなたは閉鎖システムであるものを開発しました。あなたはこの質問について正確に知っていたので、私はこの答えを得るつもりです。 

エレン・フィッツシモンズ=クラフト: そうですね。

彼女と彼女のチームが提携していたキャスというヘルスケアテクノロジー企業がプログラミングを引き継いだことから問題が始まったと彼女は語った。彼女によると、人々がテッサの質問と回答機能を押したときに有害なメッセージが表示されたとキャス氏は説明したという。

ジョン・ラプック博士: 何が間違っていたのかについてどう理解していますか?

Ellen Fitzsimmons-Craft: 何が問題だったかについての私の理解は、ある時点で、これについては実際に Cass と話し合う必要がありますが、プラットフォームに組み込まれていた生成 AI 機能があった可能性があるということです。したがって、私の推測では、これらの機能もこのプログラムに追加されていると考えられます。

カス氏は複数のコメント要請に応じなかった。

ジョン・ラプーク博士: あなたが意図していない方法で使用されたテッサに関する否定的な経験は、精神的健康問題に対処するために AI を使用することに少しでも興味をそそるものですか?

エレン・フィッツシモンズ=クラフト: このような懸念を抱えている人の 80% は、いかなる支援も受けていないのが現実なので、この考えが完全に気にならなくなったとは言えません。そしてテクノロジーは、唯一の解決策ではなく、解決策を提供します。

Monika Ostroff
モニカ・オストロフ 60分

非営利の摂食障害団体を運営するソーシャルワーカーのモニカ・オストロフさんは、患者たちがテッサに関して抱えている問題について彼女に相談したとき、独自のチャットボット開発の初期段階にあった。彼女は、メンタルヘルスケアに AI を使用することに疑問を感じたと語った。

モニカ・オストロフ: 人々は死につつあるので、私はアクセスの問題の解決に貢献したいだけです。これは誰かが1週間悲しいだけではなく、人々が死んでいくということです。そして同時に、少数の人にとっては、チャットボットはある意味、時限爆弾になる可能性があります。

特に本当に苦しんでいる患者にとって、オストロフ氏は治療の基本的なもの、つまり他の人と同じ部屋にいることが失われることを懸念している。

モニカ・オストロフ: 人が癒される方法はつながりです。そして彼らは、人間として何かを経験したときのこの瞬間について話します。そして、あなたがそれを説明しているときに、向かいに座っているその人を見ていると、その人がそれを理解する瞬間があります。

ジョン・ラプック博士: 共感の瞬間です。

モニカ・オストロフ: うーん。それはわかります。そうですね、本当にわかりますね。コンピューターではそんなことはできないと思います。

施術を行う州でライセンスを取得しているセラピストとは異なり、メンタルヘルス アプリのほとんどはほとんど規制されていません。

ジョン・ラプーク博士: 何が起こったのかから学べる教訓はありますか? 

モニカ・オストロフ: 学ぶべき教訓はたくさんあります。チャットボット、特に専門分野のチャットボットにはガードレールが必要です。インターネットをベースとしたチャットボットであってはなりません。

ジョン・ラプック博士: それは大変ですよね?閉鎖系にはある種の制約があるからです。そして、それらはほとんどの場合正しいかもしれませんが、最終的には退屈になります。右?人々はそれらを使用しなくなりましたか?

モニカ・オストロフ: ええ、彼らは予測をします。なぜなら、同じことを入力し続けても、まったく同じ言語でまったく同じ答えが返され続けたら、誰がそんなことをしたいと思うでしょうか(笑)。

AI の力を安全に利用しながら、有害なアドバイスから人々を守ることは、Woebot Health やその創設者である Alison Darcy のような企業が現在直面している課題です。

アリソン・ダーシー: 急いで行動しようとすると、間違いが生じるでしょう。そして私が最も恐れているのは、これらの失敗が最終的にこのテクノロジーが役立つ能力に対する国民の信頼を損なうことです。しかし、ここからが問題です。私たちには、これらのテクノロジーをより慎重に開発する機会が与えられています。それで、ご存知のように、私たちがそれを受け入れることを願っています。

プロデュースはアンドリュー・ウルフ。アソシエイトプロデューサー、タッド・J・ラスカリ。放送局員、グレース・コンリー。編集はクレイグ・クロフォード。

ジョン・ラプーク

headshot-600-jon-lapook.jpg

ジョン・ラプーク医学博士は、受賞歴のある CBS ニュースの首席医療特派員であり、彼のレポートはすべての CBS ニュース プラットフォームとプログラムで特集されています。2006 年に CBS ニュースに入社して以来、ラプークは、音楽、ライフスタイル、エンターテイメント スターのプロフィールに関する特集記事だけでなく、健康や医療分野のさまざまな最新ニュースや話題の記事に関する 1,200 以上のレポートを配信してきました。