60-minutes

/ 哥倫比亞廣播公司新聞

人工智慧在心理健康治療中的作用

公司利用人工智慧的力量來支持心理健康|60 分鐘 13:23

這是 2024 年 4 月 7 日首次發布的故事的更新版本。 這裡。 


人工智慧幾乎已經滲透到我們生活的方方面面——預測天氣、診斷疾病、撰寫學期論文。現在,正如我們去年春天首次報導的那樣,人工智慧正在探索大多數人類的心理——提供心理健康支持,只有你和一個聊天機器人,可以在你的智慧型手機上 24/7 全天候使用。人類治療師嚴重短缺,而潛在患者的數量卻不斷增加。人工智慧驅動的聊天機器人旨在透過為治療師提供新工具來幫助填補這一空白。但正如您即將看到的,就像人類治療師一樣,並非所有聊天機器人都是一樣的。有些可以幫助治愈,有些可能無效或更糟。艾莉森·達西 (Alison Darcy) 是該領域的先驅,她在將技術與治療相結合方面取得了顯著的成功。她相信精神衛生保健的未來可能就掌握在我們手中。

艾莉森‧達西:我們知道大多數需要照護的人都沒有得到治療。需求從未如此強烈,可用的工具也從未像現在這樣複雜。這不是我們如何讓人們來到診所的問題。問題在於我們如何才能真正將其中一些工具從診所帶到人們手中。

艾莉森·達西(Alison Darcy)——一位研究心理學家和企業家——決定利用她在編碼和治療方面的背景來構建她認為可以幫助有需要的人的東西:她命名為Woebot的心理健康聊天機器人。

Jon LaPook 博士:我是不幸的嗎?

艾莉森‧達西:我真是不幸啊。

Jon LaPook 博士:嗯嗯。

Woebot Health founder Alison Darcy
Woebot Health 創辦人艾莉森·達西 60 分鐘

Woebot 是手機上的應用程式……有點像袖珍治療師,它使用文字功能來幫助管理憂鬱、焦慮、成癮和孤獨等問題……並且可以在運行時完成。

Jon LaPook 博士:我想很多觀看此影片的人都會思考。“真的嗎?電腦精神病學?(笑)來吧。”

艾莉森·達西:嗯,我認為這很有趣,自從佛洛伊德在 1890 年代奠定了基本架構以來,我們的領域就沒有大量創​​新,對吧?這確實是那種想法,就像兩個人在一個房間裡一樣。但這不是我們今天的生活方式。我們必須使心理治療現代化。

Woebot 經過大量專業數據的訓練,以幫助它識別與功能失調的想法相關的單字、短語和表情符號,並挑戰這種思維,部分模仿一種稱為認知行為療法的面對面談話療法,或者認知行為治療。

艾莉森·達西:實際上很難找到 CBT 實踐者。而且,如果您的患者在早上掙扎著起床或凌晨 2:00 當他們無法入睡且感到驚慌時,您實際上並沒有在他們身邊,那麼我們實際上把臨床價值留在了桌面上。

Jon LaPook 博士:即使對於那些想要去看治療師的人來說,也存在障礙,對嗎?

艾莉森達西:可悲的是,我們面臨的最大障礙是恥辱。但你知道,還有保險。有成本,也有等候名單。我的意思是,自大流行以來,這個問題才顯著加劇。而且它似乎並沒有消失。

自從 Woebot 於 2017 年上線以來,該公司報告稱已有 50 萬人使用過它,而現在您只能透過雇主福利計劃或健康專業人士的幫助才能使用它。在新澤西州的一家非營利醫療保健公司 Virtua Health,患者可以免費使用它。

我們下載了Woebot,輸入了一個只能由該公司提供的唯一代碼…然後嘗試了一下。 

Woebot Health founder Alison Darcy shows Dr. Jon LaPook how Woeboy works
Woebot Health 創辦人 Alison Darcy 向 Jon LaPook 博士展示 Woeboy 的工作原理。 60 分鐘

艾莉森‧達西:我們發現人們與他們的情緒有某種關聯。我們提供諸如表情符號之類的東西,它允許人們以非語言方式進行聯繫。

我會假扮成一個憂鬱症患者。經過幾次提示後,Woebot 想要更深入了解我悲傷的原因。所以我想出了一個場景——我擔心有一天我的孩子會離開家。

Jon LaPook 博士:“想像一下,如果你的負面情緒有聲音,它們會表達什麼。你能做到嗎?”“在這裡寫下其中一個消極想法。”“我現在對此無能為力。我想當我遇到這種情況時,我就會跳過那座橋。”

正常的表達是“跨過那座橋”,聊天機器人檢測到可能存在嚴重錯誤。

Jon LaPook 博士:但是,讓我們看看。「喬恩,我聽到你說,『我對此無能為力。我想當我遇到這種情況時,我會跳橋。「我認為你可能需要比我所能提供的更多的支持。訓練有素的傾聽者能夠以我無法提供的方式幫助你。您想查看一些專門的求助專線嗎?

艾莉森·達西:現在我們的工作不是說這個——你是否處於危機之中,或者沒有,因為人工智慧在這種情況下還不能很好地做到這一點。但它捕捉到的是,“呃,喬恩剛才的措辭方式有些令人擔憂。”

說「只跳過那座橋」而不將其與「我現在無能為力」結合起來並沒有引發考慮獲得進一步幫助的建議。就像人類治療師一樣,Woebot 也不是萬無一失的,不應該指望它來檢測某人是否有自殺傾向。

Jon LaPook 博士:它怎麼知道“跳那座橋”,它從哪裡獲得“跳那座橋”的知識?

艾莉森·達西:嗯,它已經接受了大量數據和我們許多人的訓練,你知道,人類標記了我們看到的短語和事物。因此,這種情緒正在升溫。

電腦科學家蘭斯·艾略特(Lance Eliot)撰寫有關人工智慧和心理健康的文章,他表示人工智慧有能力捕捉對話的細微差別。

Jon LaPook 博士:它怎麼知道如何做到這一點?

蘭斯·艾略特:從某種意義上說,該系統能夠透過數學和計算方式弄清楚單字的本質以及單字之間的關聯方式。所以它的作用是利用大量數據。然後它會根據提示或以某種方式回應您對系統的指示或詢問。

為了完成其工作,系統必須去某個地方做出適當的回應。

使用所謂基於規則的人工智慧的系統通常是封閉的,這意味著編程為僅響應儲存在自己資料庫中的信息。然後是產生人工智慧,系統可以根據網路資訊產生原始回應。

Computer scientist Lance Eliot
計算機科學家蘭斯·艾略特 60 分鐘

Lance Eliot:如果你看看 ChatGPT,你會發現這是一種生成式人工智慧。對話非常流暢,非常流暢。但這也意味著它傾向於使其具有開放性,它可以說出你不一定希望它說的話。這並不那麼可預測。而基於規則的系統是非常可預測的。Woebot 是一個基於嚴格控制的規則的系統,這樣它就不會說錯話。

Woebot 的目標是利用人工智慧與用戶建立聯繫並保持他們的參與度。 

其由心理學家、醫生和電腦科學家組成的團隊根據醫學文獻、使用者體驗和其他來源建立和完善了一個研究資料庫。

然後,作者提出問題和答案。

並在每週的遠端視訊會議中修改它們。

Woebot 的程式設計師將這些對話轉化為程式碼。因為 Woebot 是基於規則的,所以它基本上是可預測的。但使用生成式人工智慧(即抓取網路)的聊天機器人卻並非如此。

蘭斯·艾略特:有些人有時稱之為人工智慧幻覺。從某種意義上說,人工智慧可能會犯錯、編造事實或虛構事實。

莎朗·麥克斯韋(Sharon Maxwell)去年聽說以下人士提供的建議可能有問題後發現:泰莎,一個聊天機器人,旨在幫助預防飲食失調,如果不及時治療,可能會致命。麥克斯韋本人一直在接受飲食失調症的治療,並為其他人辯護……向聊天機器人提出了挑戰。

莎朗·麥克斯韋:所以我問它,“你如何幫助飲食失調的人?”它告訴我,它可以賦予人們應對技能。極好的。它可以為人們提供尋找飲食失調領域專業人士的資源。驚人的。

但她越堅持,泰莎給的建議就越與飲食失調患者的常見指導背道而馳。例如,它建議…除其他外…減少卡路里攝取量並使用皮褶卡尺等工具來測量身體組成。

Sharon Maxwell:公眾可能會看到它並認為這是正常的提示。比如,不要吃那麼多醣類。或吃天然食品,諸如此類。但對於患有飲食失調症的人來說,這會迅速導致更多無序行為,並且可能具有真正的破壞性。莎朗·麥克斯韋

Sharon Maxwell
60 分鐘 麥克斯韋爾向美國國家飲食失調協會報告了她的經歷,該協會當時在其網站上刊登了泰莎的專題報導。

不久之後,泰莎就被打倒了。

聖路易斯華盛頓大學醫學院專門研究飲食失調的心理學家艾倫·菲茨西蒙斯·克拉夫特(Ellen Fitzsimmons-Craft)幫助領導了開發 Tessa 的團隊。

Ellen Fitzsimmons-Craft:這從來不是我們團隊編寫或編程到我們部署的機器人中的內容。

Jon LaPook 博士:所以最初,不可能發生意外的事情?

艾倫·菲茨西蒙斯-克拉夫特:正確。

Jon LaPook 博士:您發展了一個封閉系統。你完全知道這個問題,我會得到這個答案。 

艾倫·菲茨西蒙斯-克拉夫特:是的。

她告訴我們,問題是在她和她的團隊合作的一家名為 Cass 的醫療保健技術公司接管了程序後開始的。她說卡斯解釋說,當人們推送泰莎的問答功能時,就會出現有害訊息。

Jon LaPook 博士:您對問題所在有何理解?

Ellen Fitzsimmons-Craft:我對問題所在的理解是,在某些時候,你確實必須與 Cass 討論這個問題,但他們的平台中可能內建了生成式人工智慧功能。所以我最好的估計是這些功能也被添加到這個程式中。

卡斯沒有回應多次置評請求。

Jon LaPook 博士:您知道,您對 Tessa 的負面經驗(以非您設計的方式被使用)是否會讓您對使用人工智慧來解決心理健康問題感到厭煩?

Ellen Fitzsimmons-Craft:我不會說這讓我完全放棄了這個想法,因為現實是 80% 有這些擔憂的人從未獲得任何形式的幫助。而科技提供了一個解決方案,不是唯一的解決方案,而是一個解決方案。

Monika Ostroff
莫妮卡·奧斯特羅夫 60 分鐘

社工莫妮卡·奧斯特羅夫(Monika Ostroff)經營著一家非營利飲食失調組織,當時她正處於開發自己的聊天機器人的早期階段,當時患者告訴她他們與泰莎(Tessa)遇到的問題。她告訴我們,這讓她對使用人工智慧進行心理健康護理產生了疑問。

莫妮卡·奧斯特羅夫:我只想幫忙解決訪問問題,因為人們正在死去。就像,這不僅僅是某人悲傷一周,這是人們正在死去。同時,對於一小部分人來說,任何聊天機器人在某種程度上都可能是一顆不定時炸彈。

尤其是對於那些真正陷入困境的患者,奧斯特羅夫擔心失去治療的一些基本知識:與另一個人共處一室。

莫妮卡‧奧斯特羅夫:人們療癒的方式是相互連結的。他們談論這一刻,你知道,當你作為一個人經歷過一些事情時。當你描述這一點時,你看著坐在你對面的人,有那麼一刻,那個人就明白了。

Jon LaPook 博士:同理心的時刻。

莫妮卡·奧斯特羅夫:嗯嗯。你就明白了。比如說,你真的很明白。我不認為計算機可以做到這一點。

與在執業所在州獲得許可的治療師不同,大多數心理健康應用程式基本上不受監管。

Jon LaPook 博士:從發生的事情中可以學到教訓嗎? 

莫妮卡‧奧斯特羅夫:有很多教訓需要學習。聊天機器人,尤其是專業領域的聊天機器人需要有護欄。它不可能是基於互聯網的聊天機器人。

Jon LaPook 博士:這很難,對吧?因為封閉系統受到某種限制。他們在大多數時候可能是對的,但最終會變得無聊。正確的?人們停止使用它們?

莫妮卡‧奧斯特羅夫:是的,他們具有預測能力。因為如果你繼續輸入同樣的內容,它就會用完全相同的語言不斷給你完全相同的答案,我的意思是,谁愿意(笑)這樣做?

保護人們免受有害建議的影響,同時安全地利用人工智慧的力量,是 Woebot Health 及其創始人艾莉森·達西 (Alison Darcy) 等公司現在面臨的挑戰。

艾莉森·達西:如果我們嘗試行動得太快,就會出現失誤。我最擔心的是,這些失誤最終會削弱大眾對這項技術提供幫助的能力的信心。但事情是這樣的。我們有機會更深思熟慮地開發這些技術。所以,你知道,我希望我們——我希望我們接受它。

由安德魯沃爾夫製作。副製片人,塔德·J·拉斯卡里。廣播助理格蕾絲·康利。克雷格·克勞福德編輯。

喬恩·拉普克

headshot-600-jon-lapook.jpg

喬恩·拉普克 (Jon LaPook) 醫學博士是哥倫比亞廣播公司新聞 (CBS News) 屢獲殊榮的首席醫學記者,他的報道出現在所有哥倫比亞廣播公司新聞平台和節目上。自 2006 年加入哥倫比亞廣播公司新聞以來,LaPook 已發表了 1,200 多篇關於健康和醫療領域的各種突發新聞和熱門故事的報道,以及有關音樂、生活方式和娛樂明星簡介的專題報道。