BioINwatch
(BioIN + Issue + watch) : 바이오 이슈를 빠르게 포착하여 정보 제공ChatGPT 치료사를 만날 결심?!
- 등록일2023-05-09
- 조회수2225
- 분류플랫폼바이오 > 바이오융합기술
-
발간일
2023-05-09
-
키워드
#ChatGPT#AI 치료사
- 첨부파일
-
차트+
?
차트+ 도움말
ChatGPT 치료사를 만날 결심?!
BioINwatch(BioIN+Issue+Watch): 23-33
◇ ChatGPT와 같은 AI 기반의 자동화 챗봇 치료사(automated chatbot therapists)가 정신건강 분야에서 활발하게 사용 중. 일부에서는 치료의 자동화를 통해 더 많은 사람들이 치료를 받을 수 있게 되어 치료가 민주화될 수 있다고 주장하는 반면, 한편에서는 자동화 챗봇 치료사는 아직 초기 단계이며 프라이버시, 표준, 안전과 법적 책임 등 해결해야 할 문제들이 많다고 우려 ▸주요 출처 : Nature, Is the world ready for ChatGPT therapists?, 2023.5.3 |
■ 지난 70년 동안 정신건강 치료 분야에서 자동화 노력이 진행되어 왔으며, 챗봇은 약 60년 동안 그 탐구의 일부로 연구
○ 전 세계적으로 100,000명 당 약 4명의 정신과 의사가 있으며, 이 수치는 저소득 및 중간소득 국가에서 훨씬 낮은 것으로 조사
- 이러한 격차를 인식한 스마트폰 앱 개발자들은 수 천 개의 모바일 정신 건강 앱(mobile mental-health app)을 개발
○ 모바일 정신건강 앱인 Koko는 2015년부터 도움이 필요한 사람들을 지원
- 업무 문제에 대해 문자 메시지를 보내면 앱은 몇 분 안에 감성적인 문자로 긍정적인 대처전략을 제안
※ 앱은 응답을 기다리는 사용자가 다른 사람의 곤경에 응답할 수 있도록 초대하기도 하며, 이러한 작업을 돕기 위해 Kokobot은 "나도 겪어봤어요"와 같은 몇 가지 기본적인 문장으로 대화의 시작을 제안하기도 함
- 지난 10월부터 사용자는 선택을 통해 Kokobot에서 보다 완벽한 응답을 받을 수 있게 되었는데, 대규모 언어 훈련 모델인 GPT-3에 의해 자연스러운 텍스트가 작성
○ 최근 모바일 정신건강 앱이 많아지고 있으며, 2021년에 사용할 수 있는 모바일 정신건강 앱은 10,000~20,000개*로 추산
* American Psychological Association, Mental health apps are gaining traction, 2021.1.1.
- 그러나 상당수 앱은 사용에 대한 효과를 뒷받침할 증거가 매우 미흡하며, 일부 전문가는 GPT-3와 같은 대규모 언어 모델, 챗봇인 ChatGPT와의 통합은 새로운 우려를 자아낼 수 있다고 의견 제시
- 프라이버시와 투명성에 대한 문제 또는 평면적인 디지털 치료를 문제로 보고 있으며, 그 외에도 안전과 법적 책임에 대한 우려사항이 존재
※ 올해 초 벨기에 남성이 차이 리서치(Chai Research)가 개발한 엘리자(Eliza)라는 AI 챗봇과 기후 문제를 몇 주 동안 대화한 후 자살한 것으로 알려졌으며, 그의 아내는 그가 이 기술을 사용하지 않았더라면 여전히 살아 있었을 것이라고 주장
< 전 세계가 ChatGPT 치료사를 받아들일 준비가 되었나요? >
출처 : Nature, Is the world ready for ChatGPT therapists?, 2023.5.3
■ 자동화된 챗봇 치료사(automated chatbot therapists)를 만들려는 여러 시도가 Eliza의 뒤를 따랐으며, 특히 인지행동 치료에 집중
○ Eliza 챗봇은 1966년 컴퓨터 과학자 Joseph Weizenbaum이 만든 초기 자연어 처리 프로그램으로, Rogerian 요법이라는 일종의 심리치료에 따라 고안
- Weizenbaum은 Rogerian 요법이 프로그래밍 하기 쉽고, Eliza를 통해 인간과 기계의 소통이 피상적일 것이라는 그의 가설을 증명할 수 있다고 생각했으나, 놀랍게도 사용자들은 Eliza에 대해 좋은 반응을 보임
○ 심리학자들은 치료용 챗봇과 단계별 디지털 프로그램을 통해 인지행동 치료(CBT, cognitive behavioural therapy) 자동화를 시도
- 하지만 많은 CBT 관련 앱이 '증거 기반(evidence-based)'이라고 하나, 우울증이 있는 사람들에게 판매되고 있는 117개 앱 중 12개(15%)만이 CBT 원칙에 부합하는 근거 기반의 지원을 제공
※ 정신건강 앱에 대한 또 다른 분석에서는 특정 과학적 방법을 인용하는 플랫폼 중 1/3이 검증되지 않은 기술에 기반을 둔 사실을 발견하였으며, 또 다른 설문에서는 정신건강 앱의 6.2%만이 효능 데이터를 게시하는 것으로 조사
- 일부 정신건강 앱은 사용자의 참여를 가이드하는 전문인력이 있으며, 인력에 의해 안내되는 디지털 정신건강 프로그램의 효능은 기존 치료와 비슷하거나 더 나은 것으로 조사
○ 대부분의 앱 마켓플레이스는 제품을 테스트하지 않는다고 지적하며, 엄격한 통제 없이는 디지털 플라시보 효과*에 의해 많은 연구가 왜곡될 수 있다고 우려
* 개인 디바이스 및 기술 전반에 대한 사람들의 호감도가 앱의 효능을 부풀리는 효과
■ 기계학습 기반의 AI가 정신건강 자동화 구현을 위해 3가지 기능이 중요
○ 첫 번째는 치료 개입을 분석하고 세밀하게 조정하기 위해 AI의 역할로, 사례로서 ieso와 Lyssn은 치료 세션 기록에 자연어 처리 AI를 학습시킴
- Lyssn은 치료사의 공감 표현부터 CBT 개입의 사용까지 55개의 지표를 기준으로 대화를 분석
- ieso는 50만 건 이상의 치료 세션을 분석하고 결과를 추적하여 가장 효과적인 개입을 결정
○ AI의 두 번째 역할은 진단으로, 미군 재향군인을 위한 REACH VET 프로그램들은 개인 의료기록에서 자해 또는 자살과 같은 문제를 나타낼 수 있는 위험신호를 검색
- 진단이 정신건강 분야에서 AI를 적용하는 가장 의미 있는 기능일 것이라 예상하고 있지만, 대부분의 초기 플랫폼은 훨씬 더 많은 검증이 필요하다고 지적
※ AI를 활용하여 우울증을 조기에 진단할 수 있다는 목표로 약 10년 전 만들어진 앱인 MindStrong은 초기 투자자들의 기대와 전 미국 국립정신건강 연구소(NIMH, National Institute of Mental Health) 소장이였던 저명한 과학자 Tom Insel이 공동설립자였음에도 불구하고 올해 초 파산
○ 마지막 기능은 완전한 디지털 치료사로서의 AI 역할
- 고도화된 AI 개발을 위해서는 더욱 강력한 데이터가 필요하지만 윤리적인 면에서 디지털 치료 플랫폼은 개선의 여지가 많음
...................(계속)
☞ 자세한 내용은 내용바로가기 또는 첨부파일을 이용하시기 바랍니다.