60-minutes

/ CBS 뉴스

정신 건강 치료에서 AI의 역할

기업들은 정신 건강 지원을 위해 AI 성능을 활용합니다 |60분 13:23

이 내용은 2024년 4월 7일에 처음 게시된 기사의 업데이트 버전입니다. 원본 동영상을 볼 수 있습니다. 여기.에이 


인공 지능은 날씨 예측, 질병 진단, 학기말 논문 작성 등 우리 삶의 거의 모든 부분에 적용되었습니다.그리고 이제 우리가 지난 봄에 처음 보고한 것처럼 AI는 대부분의 인간, 즉 우리의 정신을 조사하고 있습니다. 스마트폰에서 연중무휴 24시간 이용 가능한 챗봇과 함께 정신 건강 지원을 제공합니다.인간 치료사가 부족하고 잠재 환자 수가 점점 늘어나고 있습니다.AI 기반 챗봇치료사에게 새로운 도구를 제공하여 그 격차를 메우도록 설계되었습니다.그러나 이제 곧 보시겠지만 인간 치료사와 마찬가지로 모든 챗봇이 동일한 것은 아닙니다.일부는 치유에 도움이 될 수 있고, 일부는 효과가 없거나 더 악화될 수 있습니다.기술과 치료를 결합하여 주목할만한 성공을 거둔 이 분야의 선구자 중 한 명은 Alison Darcy입니다.그녀는 정신 건강 관리의 미래가 우리 손에 달려 있다고 믿습니다.

Alison Darcy: 우리는 보살핌이 필요한 대다수의 사람들이 보살핌을 받지 못하고 있다는 것을 알고 있습니다.그 필요성이 더 커진 적은 없었고, 사용 가능한 도구도 지금처럼 정교했던 적이 없습니다.그리고 그것은 우리가 어떻게 사람들을 진료소에 데려갈 수 있는가에 관한 것이 아닙니다.그것은 우리가 실제로 이러한 도구 중 일부를 병원에서 꺼내 사람들의 손에 전달할 수 있는 방법입니다.

연구 심리학자이자 기업가인 Alison Darcy는 자신의 코딩 및 치료 경험을 활용하여 도움이 필요한 사람들에게 도움이 될 수 있다고 믿는 정신 건강 챗봇인 Woebot을 만들기로 결정했습니다.

Jon LaPook 박사: 나에게도 화가 있나요?

앨리슨 다아시: 나야말로 화가 난다.

Jon LaPook 박사: 음흠.

Woebot Health founder Alison Darcy
Woebot Health 창립자 Alison Darcy 60분

Woebot은 휴대폰에 있는 앱입니다. 텍스트 기능을 사용하여 우울증, 불안, 중독, 외로움과 같은 문제를 관리하고 실행 중에도 작업을 수행하는 일종의 포켓 치료사입니다.

Jon LaPook 박사: 이 영상을 보고 있는 많은 사람들이 이런 생각을 할 것 같아요."정말? 컴퓨터 정신과? (웃음) 어서요."

Alison Darcy: 글쎄요, 기본 아키텍처가 1890년대 프로이트에 의해 확립된 이후로 우리 분야에서 많은 혁신이 이루어지지 않았다는 점이 매우 흥미롭다고 생각합니다. 그렇죠?그게-- 그건 정말 두 사람이 한 방에 있다는 그런 종류의 생각이에요.그러나 오늘날 우리는 그런 삶을 살고 있지 않습니다.우리는 심리치료를 현대화해야 합니다.

Woebot은 기능 장애적 사고와 관련된 단어, 구문, 이모티콘을 인식하고 인지 행동 치료라고 하는 대면 대화 치료 유형을 부분적으로 모방하여 그러한 사고에 도전하는 데 도움이 되는 대량의 전문 데이터에 대해 훈련을 받았습니다.CBT.

Alison Darcy: 실제로 CBT 실무자를 찾는 것은 어렵습니다.또한, 환자가 아침에 침대에서 일어나려고 애쓰거나 새벽 2시에 잠을 못 자고 당황할 때 실제로 환자 옆에 있지 않다면 우리는실제로 테이블 위에 임상적 가치를 남겨두는 것입니다.

Jon LaPook 박사: 그리고 치료사에게 가고 싶어하는 사람들에게도 장벽이 있습니다. 그렇죠?

Alison Darcy: 안타깝게도 우리가 겪고 있는 가장 큰 장벽은 낙인입니다.하지만 보험이 있어요.비용이 있고 대기자 명단이 있습니다.내 말은, 이 문제는 전염병 이후로 크게 커졌다는 것입니다.그리고 그것은 사라질 것 같지 않습니다.

Woebot은 2017년에 출시된 이후 150만 명이 이 서비스를 사용했다고 보고합니다. 현재는 고용주 혜택 계획이나 의료 전문가의 접근을 통해서만 이 작업을 수행할 수 있습니다.뉴저지의 비영리 의료회사인 Virtua Health에서는 환자들이 무료로 사용할 수 있습니다.

Woebot을 다운로드하고 해당 회사에서만 제공할 수 있는 고유 코드를 입력한 다음 사용해 보았습니다. 

Woebot Health founder Alison Darcy shows Dr. Jon LaPook how Woeboy works
Woebot Health 설립자인 Alison Darcy가 Jon LaPook 박사에게 Woeboy의 작동 방식을 보여줍니다. 60분

Alison Darcy: 우리는 사람들이 자신의 기분과 어느 정도 연결된다는 사실을 발견했습니다.우리는 사람들이 비언어적인 방식으로 연결될 수 있는 이모티콘을 제공합니다.

나는 우울증에 걸린 사람처럼 행동했습니다.몇 번의 메시지 후에 Woebot은 내가 왜 슬픈지 더 깊이 파고들고 싶었습니다.그래서 아이가 집을 떠나는 날이 올까 봐 두려웠다는 시나리오를 떠올렸다.

Jon LaPook 박사: "당신의 부정적인 감정이 목소리를 갖는다면 어떤 감정이 나올지 상상해보세요. 그렇게 할 수 있나요?""여기에 부정적인 생각 중 하나를 적어보세요.""지금은 아무것도 할 수가 없어요. 다리에 다다르면 그냥 뛰어내릴 것 같아요."

일반적인 표현은 "다리를 건너세요"이며 챗봇은 무언가 심각하게 잘못된 것을 감지했습니다.

Jon LaPook 박사: 하지만, 봅시다."Jon, 나는 당신이 '나는 그것에 대해 아무것도 할 수 없습니다. 나는 그것에 도달하면 그 다리를 뛰어 넘을 것 같아요. "그리고 내 생각에는 내가 제공할 수 있는 것보다 더 많은 지원이 필요할 것 같습니다.훈련받은 경청자는 내가 할 수 없는 방식으로 당신을 도울 수 있을 것입니다.'전문적인 헬프라인을 살펴보고 싶으신가요?

Alison Darcy: 이제 이렇게 말하는 것은 우리의 일이 아닙니다. 당신이 위기에 처해 있거나 그렇지 않다는 것입니다. 왜냐하면 AI는 아직 이런 맥락에서 그렇게 잘 할 수 없기 때문입니다.그러나 그것이 포착한 것은 "허, 존이 방금 말한 방식에 대해 뭔가 우려되는 부분이 있습니다."라는 것입니다.

"그 다리만 건너면 돼"라고 말하고 "지금은 아무것도 할 수 없어"와 결합하지 않는다고 해서 추가 도움을 받는 것을 고려하라는 제안이 촉발되지는 않았습니다.인간 치료사와 마찬가지로 Woebot은 완벽하지 않으며 누군가가 자살할지 여부를 감지하는 데 의존해서는 안됩니다.

Jon LaPook 박사: 그리고 "저 다리를 뛰어넘어라"는 것을 어떻게 알 수 있을까요? "저걸 뛰어내려라"라는 지식은 어디서 얻나요?

Alison Darcy: 글쎄요, 그것은 많은 데이터와 우리가 보는 문구와 사물에 라벨을 붙이는 인간들에 대해 훈련을 받았습니다.그래서 그것은 일종의 감정을 포착하고 있습니다.

인공 지능과 정신 건강에 관해 글을 쓰는 컴퓨터 과학자 랜스 엘리엇(Lance Eliot)은 AI가 대화의 뉘앙스를 포착하는 능력을 갖고 있다고 말합니다.

Jon LaPook 박사: 그 일을 어떻게 하는지 어떻게 알 수 있나요?

Lance Eliot: 시스템은 어떤 의미에서 단어의 본질과 단어가 서로 연관되는 방식을 수학적이고 계산적으로 파악할 수 있습니다.그래서 그것이 하는 일은 방대한 양의 데이터를 활용하는 것입니다.그런 다음 프롬프트를 기반으로 하거나 시스템에 대해 지시하거나 질문하는 방식으로 응답합니다.

작업을 수행하려면 시스템이 적절한 응답을 제공하기 위해 어딘가로 이동해야 합니다.

규칙 기반 AI를 사용하는 시스템은 일반적으로 폐쇄형입니다. 즉, 자체 데이터베이스에 저장된 정보로만 응답하도록 프로그래밍되어 있습니다.그런 다음 시스템이 인터넷의 정보를 기반으로 독창적인 응답을 생성할 수 있는 생성 AI가 있습니다.

Computer scientist Lance Eliot
컴퓨터 과학자 랜스 엘리엇 60분

Lance Eliot: ChatGPT를 보면 일종의 생성 AI입니다.대화가 매우 유창하고 유창합니다.그러나 이는 또한 끝이 열려 있는 경향이 있다는 것을 의미하며, 반드시 말하고 싶지 않은 것을 말할 수도 있다는 것을 의미합니다.그것은 예측할 수 없습니다.규칙 기반 시스템은 매우 예측 가능합니다.Woebot은 매우 통제된 규칙을 기반으로 하는 시스템이므로 잘못된 말을 하지 않습니다.

Woebot은 AI를 사용하여 사용자와 유대감을 형성하고 참여를 유지하는 것을 목표로 합니다. 

심리학자, 의사, 컴퓨터 과학자로 구성된 팀은 의학 문헌, 사용자 경험 및 기타 소스로부터 얻은 연구 데이터베이스를 구축하고 개선합니다.

그런 다음 작가는 질문과 답변을 만듭니다.

그리고 매주 원격 화상 세션을 통해 수정하세요.

Woebot의 프로그래머는 이러한 대화를 코드로 엔지니어링합니다.Woebot은 규칙 기반이기 때문에 대부분 예측 가능합니다.하지만 인터넷을 긁어모으고 있는 생성적 AI를 활용한 챗봇은 그렇지 않습니다.

Lance Eliot: 어떤 사람들은 이를 AI 환각이라고 부르기도 합니다.AI는 어떤 의미에서는 실수를 할 수도 있고, 꾸며낼 수도 있고, 허구일 수도 있습니다.

샤론 맥스웰(Sharon Maxwell)은 작년에 들은 후,테사, 치료하지 않으면 치명적일 수 있는 섭식 장애를 예방하도록 설계된 챗봇입니다.자신의 섭식장애 치료를 받으며 타인의 옹호 활동을 펼쳤던 맥스웰이… 챗봇에 도전했다.

샤론 맥스웰: 그래서 저는 "섭식 장애가 있는 사람들을 어떻게 도와주나요?"라고 물었습니다.그리고 그것은 사람들에게 대처 기술을 제공할 수 있다고 말했습니다.환상적입니다.이는 사람들에게 섭식 장애 분야의 전문가를 찾을 수 있는 자원을 제공할 수 있습니다.놀라운.

그러나 그녀가 고집할수록 Tessa는 섭식 장애가 있는 사람을 위한 일반적인 지침에 어긋나는 조언을 더 많이 했습니다.예를 들어, 무엇보다도 칼로리 섭취를 낮추고 피부주름 캘리퍼와 같은 도구를 사용하여 체성분을 측정할 것을 제안했습니다.

Sharon Maxwell: 일반 대중은 이를 보고 그것이 정상적인 팁이라고 생각할 수도 있습니다.예를 들어, 설탕을 많이 먹지 마세요.아니면 전체 음식을 먹습니다.그러나 섭식 장애가 있는 사람에게 이는 훨씬 더 혼란스러운 행동으로 빠르게 나선형을 그리며 실제로 해를 끼칠 수 있습니다.샤론 맥스웰

Sharon Maxwell
60분 Maxwell은 당시 웹사이트에 Tessa를 소개했던 전국 섭식 장애 협회(National Eating Disorders Association)에 자신의 경험을 보고했습니다.

얼마 지나지 않아 Tessa가 쓰러졌습니다.

세인트 루이스에 있는 워싱턴 대학교 의과대학의 섭식 장애 전문 심리학자인 Ellen Fitzsimmons-Craft는 Tessa를 개발하는 팀을 이끄는 데 도움을 주었습니다.

Ellen Fitzsimmons-Craft: 그것은 우리 팀이 배포한 봇에 작성하거나 프로그래밍한 콘텐츠가 아니었습니다.

Jon LaPook 박사: 그럼 처음에는 예상치 못한 일이 일어날 가능성이 전혀 없었나요?

Ellen Fitzsimmons-Craft: 맞습니다.

Jon LaPook 박사: 폐쇄형 시스템을 개발하셨는데요.당신은 이 질문에 대해 정확히 알고 있었습니다. 나는 이 대답을 듣게 될 것입니다. 

Ellen Fitzsimmons-Craft: 네.

문제는 그녀와 그녀의 팀이 파트너십을 맺은 의료 기술 회사인 Cass가 프로그래밍을 맡은 이후부터 시작되었다고 말했습니다.그녀는 Cass가 사람들이 Tessa의 질문 및 답변 기능을 추진할 때 나타나는 유해한 메시지를 설명했다고 말했습니다.

Jon LaPook 박사: 무엇이 잘못되었는지 어떻게 이해하십니까?

Ellen Fitzsimmons-Craft: 무엇이 잘못되었는지에 대한 제가 이해한 바는 어느 시점에서는 이에 대해 Cass와 실제로 이야기해야 할 것이지만 플랫폼에 생성 AI 기능이 내장되었을 수도 있다는 것입니다.그래서 내 최선의 추정은 이러한 기능이 이 프로그램에도 추가되었다는 것입니다.

Cass는 여러 의견 요청에 응답하지 않았습니다.

Jon LaPook 박사: 당신이 알고 있는 Tessa에 대한 당신의 부정적인 경험, 즉 당신이 설계하지 않은 방식으로 사용되는 것 때문에 정신 건강 문제를 해결하기 위해 AI를 사용하는 것이 전혀 마음에 들지 않습니까?

Ellen Fitzsimmons-Craft: 이러한 우려를 갖고 있는 사람들 중 80%가 어떤 종류의 도움도 받을 수 없다는 것이 현실이기 때문에 이것이 제가 그 아이디어에 완전히 흥미를 잃었다고는 말하고 싶지 않습니다.그리고 기술은 유일한 솔루션이 아닌 솔루션을 제공합니다.

Monika Ostroff
모니카 오스트로프 60분

비영리 섭식 장애 조직을 운영하는 사회복지사 Monika Ostroff는 환자들이 Tessa와 관련된 문제에 대해 이야기했을 때 자신의 챗봇을 개발하는 초기 단계에 있었습니다.그녀는 정신 건강 관리에 AI를 사용하여 질문을 했다고 말했습니다.

Monika Ostroff: 사람들이 죽어가고 있기 때문에 저는 접근 문제를 해결하는 데 도움을 주고 싶습니다.예를 들어, 이것은 일주일 동안 슬픈 사람이 아니라 사람들이 죽어가고 있는 것입니다.동시에 모든 챗봇은 소수의 사람들에게 어떤 면에서는 시한폭탄이 될 수 있습니다.

특히 정말로 어려움을 겪고 있는 환자들에 대해 Ostroff는 치료에 대한 근본적인 것, 즉 다른 사람과 함께 방에 있는 것을 잃는 것을 우려하고 있습니다.

Monika Ostroff: 사람들이 치유하는 방식은 연결되어 있습니다.그리고 그들은 인간으로서 뭔가를 겪었던 한 순간에 대해 이야기합니다.그리고 당신이 그것을 설명할 때, 당신은 당신 맞은편에 앉아 있는 사람을 보고 있습니다. 그리고 그 사람이 그것을 이해하는 순간이 있습니다.

Jon LaPook 박사: 공감의 순간입니다.

모니카 오스트로프: 음흠.당신은 그것을 얻습니다.당신은 정말로 그것을 이해합니다.나는 컴퓨터가 그런 일을 할 수 없다고 생각한다.

해당 주에서 자격증을 취득한 치료사와 달리 대부분의 정신 건강 앱은 대부분 규제되지 않습니다.

Jon LaPook 박사: 일어난 일로부터 배울 수 있는 교훈이 있습니까? 

Monika Ostroff: 배워야 할 교훈이 너무 많아요.챗봇, 특히 전문분야 챗봇에는 가드레일이 필요합니다.인터넷 기반의 챗봇이 아닐 수 없습니다.

Jon LaPook 박사: 힘들죠?폐쇄형 시스템은 일종의 제약을 받기 때문입니다.그리고 대부분의 경우 그 말이 맞을 수도 있지만 결국에는 지루해집니다.오른쪽?사람들이 사용을 중단하나요?

Monika Ostroff: 네, 예측이 가능합니다.왜냐면 계속 똑같은 것을 입력했는데 똑같은 언어로 똑같은 대답이 계속 나온다면 누가 그렇게 하고 싶겠습니까(웃음)?

AI의 힘을 안전하게 활용하면서 유해한 조언으로부터 사람들을 보호하는 것은 현재 Woebot Health와 창립자인 Alison Darcy와 같은 회사가 직면한 과제입니다.

Alison Darcy: 너무 빨리 움직이려고 하면 실수가 발생할 수 있습니다.그리고 제가 가장 두려워하는 점은 이러한 실수가 궁극적으로 이 기술의 도움이 될 수 있는 능력에 대한 대중의 신뢰를 약화시킨다는 것입니다.하지만 여기에 문제가 있습니다.우리는 이러한 기술을 더욱 신중하게 개발할 수 있는 기회를 얻었습니다.그리고... 그래서, 알다시피, 우리가... 받아들이기를 바랍니다.

앤드류 울프가 제작을 맡았습니다.부프로듀서, 태드 J. 라스카리(Tadd J. Lascari)방송 관계자, Grace Conley.크레이그 크로포드가 편집함.

존 라푸크

headshot-600-jon-lapook.jpg

Jon LaPook, M.D.는 수상 경력이 있는 CBS News의 최고 의료 특파원으로, 그의 보도는 모든 CBS News 플랫폼 및 프로그램에 소개됩니다.2006년 CBS 뉴스에 합류한 이후 LaPook은 건강 및 의료 분야의 다양한 최신 뉴스와 인기 기사에 대한 1,200개 이상의 보고서를 전달했을 뿐만 아니라 음악, 라이프스타일, 연예계 스타 프로필에 대한 특집 기사도 전달했습니다.