60-minutes

/ 哥伦比亚广播公司新闻

人工智能在心理健康治疗中的作用

公司利用AI的心理健康支持|60 分钟 13:23

这是2024年4月7日首次发布的故事的更新版本。可以观看原始视频。 这里。一个 


人工智能几乎已经渗透到我们生活的方方面面——预测天气、诊断疾病、撰写学期论文。现在,正如我们去年春天首次报道的那样,人工智能正在探索大多数人类的心理——提供心理健康支持,只有你和一个聊天机器人,可以在你的智能手机上 24/7 全天候使用。人类治疗师严重短缺,而潜在患者的数量却在不断增加。AI驱动的聊天机器人旨在通过为治疗师提供新工具来帮助填补这一空白。但正如您即将看到的,就像人类治疗师一样,并非所有聊天机器人都是平等的。有些可以帮助治愈,有些可能无效或更糟。艾莉森·达西 (Alison Darcy) 是该领域的一位先驱,她在将技术与治疗相结合方面取得了显着的成功。她认为,精神卫生保健的未来可能就在我们手中。

艾莉森·达西(Alison Darcy):我们知道大多数需要护理的人都没有得到它。从来没有更多的需求,而且可用的工具从未像现在这样复杂。这与我们如何吸引诊所的人无关。这就是我们如何真正将其中一些工具从诊所和人的手中拿到手中。

艾莉森·达西(Alison Darcy)——一位研究心理学家和企业家——决定利用她在编码和治疗方面的背景来构建她认为可以帮助有需要的人的东西:她命名为 Woebot 的心理健康聊天机器人。

Jon LaPook 博士:我是不幸的吗?

艾莉森·达西(Alison Darcy):祸患是我。

乔恩·拉普克(Jon Lapook)博士:嗯。

Woebot Health founder Alison Darcy
Woebot Health 创始人艾莉森·达西 60 分钟

Woebot 是手机上的一个应用程序……有点像袖珍治疗师,它使用文本功能来帮助管理抑郁、焦虑、成瘾和孤独等问题……并且可以在运行时完成。

Jon LaPook 博士:我想很多观看此视频的人都会思考。“真的?计算机精神病学?(笑)来吧。”

艾莉森·达西:嗯,我认为这很有趣,自从弗洛伊德在 1890 年代奠定了基本架构以来,我们的领域就没有大量创新,对吧?这确实是那种想法,就像两个人在一个房间里一样。但这不是我们今天的生活方式。我们必须使心理治疗现代化。

Woebot 经过大量专业数据的训练,以帮助它识别与功能失调的想法相关的单词、短语和表情符号,并挑战这种思维,部分模仿一种称为认知行为疗法的面对面谈话疗法,或者认知行为治疗。

艾莉森·达西(Alison Darcy):实际上很难找到CBT从业者。而且,如果您的患者在早上挣扎着起床或凌晨 2:00 当他们无法入睡且感到惊慌时,您实际上并没有在他们身边,那么我们实际上把临床价值留在了桌面上。

乔恩·拉普克(Jon Lapook)博士:甚至对于想要去治疗师的人,还有障碍,对吗?

艾莉森·达西(Alison Darcy):可悲的是,我们拥有的最大障碍是污名。但你知道,还有保险。有成本,也有等待名单。我的意思是,自从大流行以来,这个问题才显着发展。而且它似乎并没有消失。

自 Woebot 于 2017 年上线以来,该公司报告称已有 50 万人使用过它,而现在您只能通过雇主福利计划或健康专业人士的帮助才能使用它。在新泽西州的非营利性医疗保健公司Virtua Health,患者可以免费使用它。

我们下载了Woebot,输入了一个独特的代码,该代码只能由公司提供。 

Woebot Health founder Alison Darcy shows Dr. Jon LaPook how Woeboy works
Woebot Health的创始人Alison Darcy向Jon Lapook博士展示了Woeboy的工作原理。 60 分钟

艾莉森·达西:我们发现人们与他们的情绪有某种联系。我们提供诸如表情符号之类的东西,它允许人们以非语言方式进行联系。

我是一个沮丧的人。经过几次提示后,Woebot 想要更深入地了解我悲伤的原因。所以我想出了一个场景——我担心有一天我的孩子会离开家。

乔恩·拉普克(Jon Lapook)博士:“想象一下,如果他们有声音,您会说什么。你能做到吗?”“在这里写那些负面的想法之一。”“我现在不能做任何事情。

正常的表达是“跨过那座桥”,聊天机器人检测到可能存在严重错误。

Jon LaPook 博士:但是,让我们看看。“乔恩,我听到你说,‘我对此无能为力。我想当我遇到这种情况时,我会跳桥。“我认为你可能需要比我所能提供的更多的支持。训练有素的倾听者能够以我无法提供的方式帮助你。您想看看一些专业的热线求助热线吗?

艾莉森·达西:现在我们的工作不是说这个——你是否处于危机之中,或者没有,因为人工智能在这种情况下还不能很好地做到这一点。但它捕捉到的是,“呃,乔恩刚才的措辞方式有些令人担忧。”

说“只跳过那座桥”而不将其与“我现在无能为力”结合起来并没有引发考虑获得进一步帮助的建议。像人类治疗师一样,怪兽也不是万无一失的,不应依靠发现某人是否可以自杀。

Jon LaPook 博士:它怎么知道“跳那座桥”,它从哪里获得“跳那座桥”的知识?

艾莉森·达西:嗯,它已经接受了大量数据和我们很多人的训练,你知道,人类标记了我们看到的短语和事物。因此,它是一种情绪。

计算机科学家兰斯·艾略特(Lance Eliot)撰写有关人工智能和心理健康的文章,他表示人工智能有能力捕捉对话的细微差别。

Jon LaPook 博士:它怎么知道如何做到这一点?

兰斯·埃利奥特(Lance Eliot):该系统在数学上和计算上都可以弄清单词的性质以及单词如何相互关联。因此,它的作用是利用大量数据。然后它会根据提示或以某种方式响应您对系统的指示或询问。

为了完成其工作,系统必须去某个地方做出适当的响应。

使用所谓的基于规则的AI的系统通常是关闭的,这意味着只用存储在自己的数据库中的信息进行编程。然后是生成人工智能,系统可以根据互联网信息生成原始响应。

Computer scientist Lance Eliot
计算机科学家兰斯·艾略特 60 分钟

Lance Eliot:如果你看看 ChatGPT,就会发现这是一种生成式人工智能。对话非常流畅,非常流畅。但这也意味着它倾向于使其具有开放性,它可以说出你不一定希望它说的事情。这不是可预测的。而基于规则的系统是非常可预测的。Woebot 是一个基于严格控制的规则的系统,这样它就不会说错话。

Woebot 的目标是利用人工智能与用户建立联系并保持他们的参与度。 

它的员工心理学家,医生和计算机科学家团队构建并完善了医学文献,用户体验和其他来源的研究数据库。

然后,作者提出问题和答案。

并在每周的远程视频会议中修改它们。

Woebot 的程序员将这些对话转化为代码。因为 Woebot 是基于规则的,所以它基本上是可预测的。但使用生成式人工智能(即抓取互联网)的聊天机器人却并非如此。

兰斯·艾略特:有些人有时将其称为人工智能幻觉。从某种意义上说,人工智能可能会犯错误、编造事实或虚构事实。

莎朗·麦克斯韦(Sharon Maxwell)去年听说以下人士提供的建议可能存在问题后发现:泰莎,旨在帮助防止饮食失调的聊天机器人可能是致命的。麦克斯韦(Maxwell)一直因自己的饮食失调而接受治疗,并为他人提供拥护者 - 对聊天机器人提出了挑战。

莎朗·麦克斯韦:所以我问它,“你如何帮助饮食失调的人?”它告诉我,它可以赋予人们应对技能。极好的。它可以为人们提供寻找饮食失调领域专业人士的资源。惊人的。

但她越坚持,泰莎给出的建议就越与饮食失调患者的通常指导背道而驰。例如,它建议……除其他外……减少卡路里摄入量并使用皮褶卡尺等工具来测量身体成分。

Sharon Maxwell:公众可能会看到它并认为这是正常的提示。就像,不要吃太多的糖。或吃全食,类似的东西。但是对于患有饮食失调症的人来说,这是一个快速的螺旋式螺旋式的行为,可能会造成伤害。沙龙·麦克斯韦(Sharon Maxwell)

Sharon Maxwell
60 分钟 麦克斯韦尔向国家饮食失调协会报告了她的经历,该协会当时在其网站上刊登了泰莎的专题报道。

不久之后,泰莎就被打倒了。

圣路易斯华盛顿大学医学院专门研究饮食失调的心理学家艾伦·菲茨西蒙斯·克拉夫特(Ellen Fitzsimmons-Craft)帮助领导了开发 Tessa 的团队。

Ellen Fitzsimmons-craft:这从来不是我们团队编写或编程为我们部署的机器人的内容。

乔恩·拉普克(Jon Lapook)博士:因此,最初,没有可能发生意外的事情吗?

Ellen Fitzsimmons-Craft:正确。

Jon LaPook 博士:您开发了一个封闭系统。你完全知道这个问题,我会得到这个答案。 

Ellen Fitzsimmons-Craft:是的。

她告诉我们,问题是在她和她的团队合作的一家名为 Cass 的医疗保健技术公司接管了程序后开始的。她说,卡斯解释了当人们推动泰莎(Tessa)的问题和答案功能时,出现的有害信息。

Jon LaPook 博士:您对问题所在有何理解?

Ellen Fitzsimmons-Craft:我对问题所在的理解是,在某些时候,你确实必须与 Cass 讨论这个问题,但他们的平台中可能内置了生成式人工智能功能。因此,我最好的估计是这些功能也添加到了该程序中。

卡斯没有回应多次置评请求。

乔恩·拉普克(Jon Lapook)博士:您对泰莎(Tessa)的负面经历是否在您没有设计的方式上使用,这是否会使您完全使用AI来解决心理健康问题?

Ellen Fitzsimmons-Craft:我不会说这完全使我无法接受这个想法,因为现实是80%的有这些担忧的人永远无法获得任何帮助。而技术提供了一个解决方案,不是唯一的解决方案,而是一个解决方案。

Monika Ostroff
莫妮卡·奥斯特罗夫(Monika Ostroff) 60 分钟

经营非营利性饮食失调组织的社会工作者莫妮卡·奥斯特罗夫(Monika Ostroff)正处于发展自己的聊天机器人的早期阶段,患者告诉她他们与泰莎(Tessa)遇到的问题。她告诉我们,这使她的问题使用AI进行心理保健。

莫妮卡·奥斯特罗夫:我只想帮助解决访问问题,因为人们正在死去。就像,这不仅仅是某人悲伤一周,这是人们正在死去。与此同时,对于一小部分人来说,任何聊天机器人在某种程度上都可能是一颗定时炸弹。

特别是对于那些真正挣扎的患者,奥斯特罗夫(Ostroff)担心失去有关治疗基本的东西:与另一个人在一起的房间。

莫妮卡·奥斯特罗夫:人们治愈的方式是相互联系的。他们谈论了这一刻,当您作为人类经历了某些事情时,您就知道了。当您描述这一点时,您正在看着那个人,坐在您对面,并且有片刻的人刚得到它。

乔恩·拉普克(Jon Lapook)博士:同理心。

莫妮卡·奥斯特罗夫:嗯嗯。你就明白了。比如说,你真的很明白。我不认为计算机可以做到这一点。

与在执业的州获得许可的治疗师不同,大多数心理健康应用在很大程度上不受监管。

乔恩·拉普克(Jon Lapook)博士:是否可以从发生的事情中学到教训? 

莫妮卡·奥斯特罗夫(Monika Ostroff):有很多需要学习的教训。聊天机器人,尤其是专业区聊天机器人需要有护栏。它不能是基于Internet的聊天机器人。

乔恩·拉普克(Jon Lapook)博士:很难,对吗?因为封闭的系统受到限制。而且它们大多数时候可能是对的,但最终他们最终很无聊。正确的?人们停止使用它们吗?

莫妮卡·奥斯特罗夫(Monika Ostroff):是的,它们是预测的。因为如果您不断打字并以完全相同的语言给您完全相同的答案,我的意思是,谁想(笑)这样做?

保护人们免受有害建议,同时安全利用AI的力量是如今面临Woebot Health等公司及其创始人Alison Darcy的挑战。

艾莉森·达西(Alison Darcy):如果我们试图太快地移动,将会有失误。我最担心的是,这些失误最终破坏了公众对这项技术的能力的信心。但事情是这样的。我们有机会更加周到地开发这些技术。所以,你知道,我希望我们——我希望我们接受它。

由安德鲁·沃尔夫制作。副制片人,塔德·J·拉斯卡里。广播助理格蕾丝·康利。克雷格·克劳福德编辑。

乔恩·拉普克

headshot-600-jon-lapook.jpg

乔恩·拉普克(Jon Lapook),医学博士是哥伦比亚广播公司新闻(CBS News)屡获殊荣的首席医疗通讯员,他的报告在所有CBS新闻平台和计划中都有特色。自2006年加入CBS新闻以来,拉普克(Lapook)在健康和医疗领域中发表了1200多次有关众多新闻和热门故事的报告,以及有关娱乐明星的音乐,生活方式和个人资料的特色故事。