몇 달 전, 50대 중반의 한 여성(소피라고 하죠)이 출혈성 뇌졸중을 겪었습니다. 그녀의 뇌가 출혈하기 시작했습니다. 그녀는 뇌 수술을 받았지만 심장이 뛰는 것을 멈췄습니다.
소피의 시련은 그녀에게 심각한 뇌 손상을 남겼습니다. 그녀는 반응하지 않았고, 그녀는 요청받았을 때 손가락을 꽉 쥐거나 눈을 뜨지 못했고, 그녀의 피부가 꼬집혔을 때 그녀는 움찔하지 않았습니다. 그녀는 목에 기관절개술 튜브를 삽입하여 숨을 쉬어야 했고, 영양분을 삼킬 수 없었기 때문에 그녀의 위장에 직접 공급하기 위해 영양 튜브를 삽입해야 했습니다. 그녀의 의료는 그 후 어디로 가야 할까요?
이 어려운 질문은 보통 이런 종류의 상황에서 그렇듯이 소피의 가족에게 맡겨졌다고, 소피의 치료에 관여했던 Baylor College of Medicine의 내과 의사 Holland Kaplan은 회상합니다. 하지만 가족은 동의할 수 없었습니다. 소피의 딸은 어머니가 치료를 중단하고 평화롭게 죽기를 원할 것이라고 단호하게 주장했습니다. 다른 가족은 격렬하게 반대하며 소피가 “싸움꾼”이라고 주장했습니다. 이 상황은 소피의 의사를 포함한 모든 관련자에게 괴로운 일이었습니다.
미국 국립보건원의 생명윤리학자 데이비드 웬들러는 임종 결정은 대리모에게 극도로 불안한 일이 될 수 있다고 말합니다. 대리모는 다른 사람을 대신하여 전화를 걸어야 하는 사람들입니다. 웬들러와 그의 동료들은 상황을 더 쉽게 만들 수 있는 아이디어를 연구해 왔습니다. 인공지능 기반 도구 이를 통해 대리모는 특정 상황에서 환자 본인이 원하는 것이 무엇인지 예측하는 데 도움이 될 수 있습니다.
이 도구는 아직 만들어지지 않았습니다. 하지만 Wendler는 개인의 의료 데이터, 개인 메시지, 소셜 미디어 게시물을 바탕으로 훈련할 계획입니다. 그는 이 도구가 환자가 원하는 것을 더 정확하게 알아낼 수 있을 뿐만 아니라 가족 구성원의 어려운 의사 결정에 따른 스트레스와 정서적 부담을 덜어주기를 바랍니다.
웬들러는 옥스퍼드 대학의 생명윤리학자 브라이언 어프와 동료들과 함께 자금을 확보하자마자, 아마도 몇 달 안에 도구를 만들기 시작하기를 바라고 있습니다. 하지만 출시는 간단하지 않을 것입니다. 비평가들은 그러한 도구가 어떻게 사람의 데이터로 윤리적으로 훈련될 수 있는지, 그리고 생사에 대한 결정을 AI에 맡겨야 하는지 의문을 제기합니다.
살거나 죽거나
약 의료 환경에 있는 사람들의 34%는 자신의 치료에 대한 결정을 내릴 수 없는 것으로 간주됩니다. 다양한 이유로. 예를 들어, 의식이 없거나 추론하거나 소통할 수 없는 경우가 있습니다. 이 수치는 노인에게서 더 높습니다. 미국에서 60세 이상의 사람들을 대상으로 한 한 연구에서 다음과 같은 사실이 밝혀졌습니다. 치료에 관한 중요한 결정에 직면한 사람들 중 70%는 스스로 결정을 내릴 능력이 부족했습니다.. “그저 많은 결정이 아니라 정말 중요한 결정이 많습니다.” 웬들러는 말한다. “근래에 사람이 살 것인지 죽을 것인지를 결정하는 종류의 결정입니다.”
심장이 쇠약해진 환자에게 흉부 압박을 가하면 수명이 늘어날 수 있습니다. 하지만 이 치료로 인해 흉골과 갈비뼈가 부러질 수 있으며, 환자가 회복할 때까지(만약 회복이 된다면) 심각한 뇌 손상이 발생했을 수 있습니다. 기계를 사용해 심장과 폐를 계속 작동시키면 다른 장기에 산소가 공급된 혈액을 공급할 수 있지만 회복이 보장되지는 않으며 그동안 수많은 감염이 발생할 수 있습니다. 말기 환자는 몇 주 또는 몇 달 더 살 수 있는 병원에서 투여하는 약물과 시술을 계속 시도하고 싶어할 수 있습니다. 하지만 다른 사람은 이러한 개입을 포기하고 집에서 더 편안하게 지내고 싶어할 수 있습니다.
주변에만 미국 성인 3명 중 1명이 사전 지시를 완료합니다.— 그들이 받고 싶어할 수 있는 임종 치료를 명시한 법적 문서. 웬들러는 임종 결정의 90% 이상이 환자가 아닌 다른 사람이 내린다고 추정합니다. 대리인의 역할은 환자가 어떻게 대우받고 싶어하는지에 대한 신념에 따라 그 결정을 내리는 것입니다. 하지만 사람들은 일반적으로 이런 종류의 예측을 하는 데 그다지 능숙하지 않습니다. 연구에 따르면 대리자는 환자의 임종 결정을 약 68%의 확률로 정확하게 예측합니다..
결정 자체도 극도로 고통스러울 수 있다고 Wendler는 덧붙였습니다. 일부 대리모는 사랑하는 사람을 부양한 것에 만족감을 느끼는 반면, 다른 대리모는 감정적 부담과 그 후 몇 달 또는 몇 년 동안 죄책감을 느낄 수 있습니다.. 어떤 사람들은 사랑하는 사람의 삶을 너무 일찍 끝냈다고 두려워합니다. 다른 사람들은 불필요하게 고통을 연장했다고 걱정합니다. “많은 사람들에게 정말 나쁩니다.” 웬들러가 말합니다. “사람들은 이것을 그들이 해야 했던 최악의 일 중 하나라고 묘사할 것입니다.”
Wendler는 대리모가 이런 종류의 결정을 내릴 수 있도록 돕는 방법을 연구해 왔습니다. 10년 이상 전에 그는 다음과 같은 아이디어를 개발했습니다. 환자의 특성을 기반으로 환자의 선호도를 예측하는 도구 나이, 성별, 보험 상태와 같은. 그 도구는 일반 인구의 설문 조사 결과를 바탕으로 훈련된 컴퓨터 알고리즘을 기반으로 했을 것입니다. 조잡해 보일 수 있지만 이러한 특성은 사람들이 의료에 대해 어떻게 생각하는지에 영향을 미치는 것으로 보입니다. 예를 들어, 십 대는 90세 노인보다 공격적인 치료를 선택할 가능성이 더 높습니다. 그리고 연구에 따르면 평균에 근거한 예측은 가족 구성원이 추측한 것보다 더 정확할 수 있습니다..
2007년에 Wendler와 그의 동료들은 소량의 데이터를 기반으로 이 도구의 “매우 기본적인” 예비 버전을 만들었습니다. 그 단순한 도구는 “최소한 친족 대리모와 마찬가지로웬들러는 사람들이 어떤 종류의 치료를 원하는지 예측하는 데 도움이 된다고 말합니다.
이제 Wendler, Earp 및 동료들은 새로운 아이디어를 개발하고 있습니다. 연구자들이 만들 계획인 새로운 도구는 조잡한 특성에 기반하는 것이 아니라 개인화될 것입니다. 이 팀은 AI와 머신 러닝을 사용하여 이메일, 개인 메시지, 웹 브라우징 기록, 소셜 미디어 게시물 또는 Facebook 좋아요와 같은 개인 데이터를 기반으로 환자의 치료 선호도를 예측하는 것을 제안합니다. 그 결과는 사람의 “디지털 심리적 쌍둥이”가 될 것입니다. 의사와 가족이 사람의 치료를 안내하기 위해 참조할 수 있는 도구입니다. 이것이 실제로 어떻게 보일지는 아직 명확하지 않지만, 이 팀은 도구를 개선하기 전에 도구를 만들고 테스트하기를 바라고 있습니다.
연구자들은 이 도구를 개인화된 환자 선호도 예측기, 줄여서 P4라고 부릅니다. 이론적으로 그들이 바라는 대로 작동한다면 이전 버전의 도구보다 더 정확할 수 있고, 인간 대리자보다 더 정확할 수 있다고 Wendler는 말합니다. Earp은 10년 전에 서명되었을 수 있는 사전 지시보다 환자의 현재 생각을 더 잘 반영할 수 있다고 말합니다.
더 나은 선택?
텍사스 주 베일러 의대의 의료 윤리학자 제니퍼 블루멘탈-바비는 P4와 같은 도구가 대리인이 가족 구성원에 대한 생사에 관한 중대한 결정을 내릴 때 느끼는 감정적 부담을 덜어주는 데 도움이 될 수 있다고 말합니다. 대리인은 이로 인해 때때로 외상 후 스트레스 장애 증상이 나타날 수 있습니다.
Kaplan에 따르면 일부 대리모는 “의사결정 마비”를 경험하고 이 도구를 사용하여 의사 결정 과정을 안내받기로 선택할 수 있습니다. 이런 경우 P4는 대리모가 겪을 수 있는 부담을 덜어주는 데 도움이 될 수 있지만 반드시 흑백으로 대답하는 것은 아닙니다. 예를 들어, 어떤 사람이 치료에 대해 특정한 방식으로 느낄 “가능성이 높음” 또는 “가능성이 낮음”을 제안하거나 답이 옳거나 그름일 가능성을 나타내는 백분율 점수를 제공할 수 있습니다.
Kaplan은 Sophie의 경우처럼 다양한 가족 구성원이 한 사람의 의료에 대해 서로 다른 의견을 가질 수 있는 경우에 P4와 같은 도구가 도움이 될 수 있다고 상상할 수 있습니다. 그런 경우 도구를 이러한 가족 구성원에게 제공하여 이상적으로는 함께 결정을 내리는 데 도움을 줄 수 있습니다.
또한 대리모가 없는 사람들의 치료에 대한 결정을 내리는 데 도움이 될 수 있습니다. Kaplan은 휴스턴의 Ben Taub 병원에서 내과 의사로 일하고 있습니다. 이 병원은 건강 보험이 있든 없든 환자를 치료하는 “안전망” 병원입니다. 그녀는 “우리 환자 중 상당수가 불법 체류자, 수감자, 노숙자입니다.”라고 말합니다. “우리는 기본적으로 다른 곳에서 치료를 받을 수 없는 환자를 돌봅니다.”
Kaplan이 진료할 때쯤이면 이런 환자들은 종종 극심한 곤경에 처해 있고 질병의 말기에 있습니다. 많은 환자들이 치료에 대해 논의할 수 없고, 어떤 환자들은 대신 말할 가족이 없습니다. Kaplan은 이런 상황에서 P4와 같은 도구를 사용하여 의사가 환자가 원하는 것이 무엇인지에 대해 조금 더 자세히 알 수 있다고 생각합니다. 이런 경우 예를 들어 해당 사람의 소셜 미디어 프로필을 찾는 것이 어려울 수 있습니다. 하지만 다른 정보가 유용할 수도 있습니다. Wendler는 “무언가가 예측 요인으로 판명되면 모델에 포함시키고 싶습니다.”라고 말합니다. “사람들의 머리 색깔이나 초등학교 출신지, 성의 첫 글자가 [predict a person’s wishes]그러면 이것도 추가하고 싶어요.”
이 접근 방식은 Earp와 그의 동료들의 예비 연구에 의해 뒷받침되는데, 그들은 개인이 P4 사용에 대해 어떻게 생각하는지 알아보기 위해 설문 조사를 시작했습니다. 이 연구는 진행 중이지만 초기 반응에 따르면 사람들은 인간 대리자가 없다면 모델을 시도할 의향이 있을 것이라고 합니다. Earp는 자신도 같은 생각을 한다고 말합니다. 그는 또한 P4와 대리자가 다른 예측을 한다면 “아마도 모델보다는 나를 아는 인간에게 양보할 것”이라고 말합니다.
인간이 아니다
Earp의 감정은 다른 많은 사람들이 공유할 직감을 배신합니다. 즉, 이러한 거대한 결정은 이상적으로는 인간이 내려야 한다는 것입니다. 스위스 연방 공과대학 로잔의 연구원 Georg Starke는 “문제는 우리가 어떻게, 그리고 누가 임종 결정을 내리기를 원하는가입니다.”라고 말합니다. 그는 기술 솔루션주의적 접근 방식을 취하고 친밀하고 복잡한 개인적인 결정을 “엔지니어링 문제”로 바꿀 가능성에 대해 우려합니다.
로체스터 대학교의 윤리학자인 브라이언나 무어는 P4에 대해 들었을 때의 첫 반응이 “아니요”였다고 말합니다. 무어는 두 병원에서 환자, 가족, 병원 직원을 대상으로 상담을 제공하는 임상 윤리학자입니다. 그녀는 “우리 업무의 대부분은 끔찍한 결정에 직면한 사람들과 함께 앉아 있는 것뿐입니다. 그들에게는 좋은 선택지가 없습니다.”라고 말합니다. “대리모에게 정말 필요한 것은 여러분이 그들과 함께 앉아 그들의 이야기를 듣고 적극적인 경청과 확인을 통해 그들을 지원하는 것입니다. [their] 역할…솔직히 말해서 이런 것에 대한 필요성이 얼마나 될지 모르겠어요.”
무어는 대리모가 사랑하는 사람의 보살핌에 대한 결정을 내릴 때 항상 옳은 것은 아니라는 것을 받아들인다. 우리가 환자에게 직접 물어볼 수 있다 하더라도, 그들의 대답은 시간이 지나면서 바뀔 것이다. 무어는 이를 “그때의 나, 지금의 나” 문제라고 부른다.
그리고 그녀는 P4와 같은 도구가 반드시 문제를 해결할 것이라고 생각하지 않습니다. 이전 메모, 메시지, 소셜 미디어 게시물에서 사람의 희망이 명확히 전달되었다 하더라도, 실제로 그 상황에 처하기 전까지는 의료 상황에 대해 어떻게 느낄지 아는 것이 매우 어려울 수 있습니다. Kaplan은 심장이 뛰는 것을 멈추면 흉부 압박을 받고 싶다고 고집하던 골다공증이 있는 80세 노인을 치료했던 일을 떠올립니다. 하지만 그 순간이 왔을 때, 그의 뼈는 압박을 견딜 수 없을 만큼 너무 얇고 부서지기 쉬웠습니다. Kaplan은 그의 뼈가 “이쑤시개처럼” 딱딱 부러지는 소리와 그 남자의 흉골이 갈비뼈에서 떨어지는 소리를 들었던 것을 기억합니다. Kaplan은 “그러면, 우리가 뭘 하는 거지? 누구를 돕는 거지? 누가 정말 이걸 원할까?”라고 생각합니다.
다른 우려 사항도 있습니다. 우선, 사람의 소셜 미디어 게시물을 통해 훈련된 AI는 “심리적 쌍둥이”가 되지 못할 수 있습니다. Blumenthal-Barby는 “소셜 미디어를 사용하는 사람이라면 누구나 소셜 미디어 프로필에 올린 내용이 우리가 진정으로 믿거나 가치 있게 여기거나 원하는 것을 나타내지 않는다는 것을 알고 있습니다.”라고 말합니다. 그리고 그렇게 하더라도 이러한 게시물이 임종 치료에 대한 우리의 감정을 어떻게 반영하는지 아는 것은 어렵습니다. 많은 사람이 가족과 이런 대화를 나누는 것조차 어려운데, 공개 플랫폼에서는 더더욱 그렇습니다.
현재 상황에서는 AI가 인간의 질문에 대한 답을 내는 데 항상 훌륭한 일을 하는 것은 아닙니다. AI 모델에 주어진 프롬프트를 미묘하게 변경하더라도 완전히 다른 응답을 얻을 수 있습니다. “환자가 삶의 마지막에 원하는 것을 말해야 하는 미세 조정된 대규모 언어 모델에서 이런 일이 일어나는 것을 상상해 보세요.”라고 Starke는 말합니다. “그것은 무섭습니다.”
반면에 인간도 오류를 범할 수 있습니다. Baylor College of Medicine의 생명윤리학자인 Vasiliki Rahimzadeh는 P4가 엄격한 테스트를 거친다면 좋은 아이디어라고 생각합니다. 그녀는 “우리는 이 기술을 우리 자신보다 더 높은 기준으로 평가해서는 안 됩니다.”라고 말합니다.
Earp와 Wendler는 앞으로의 과제를 인정합니다. 그들은 자신들이 만든 도구가 개인 정보를 침해하지 않으면서도 개인의 희망을 반영할 수 있는 유용한 정보를 포착할 수 있기를 바랍니다. 그들은 환자와 대리인이 선택할 수 있는 유용한 가이드가 되기를 바라지만, 개인의 치료에 대한 흑백의 최종 답변을 제공하는 기본적인 방법은 원하지 않습니다.
그들이 그러한 전선에서 성공하더라도, 그러한 도구가 궁극적으로 어떻게 사용되는지 통제할 수 없을 수도 있습니다. 예를 들어, 소피의 경우와 같은 사례를 살펴보겠습니다. P4가 사용되었다면, 그 예측은 이미 압박을 받고 있는 가족 관계를 더욱 파괴하는 데 도움이 될 수 있습니다. 그리고 그것이 환자의 희망에 가장 가까운 지표로 제시된다면, 환자의 의사가 가족 구성원의 의견보다 P4의 결과를 따를 법적 의무가 있다고 느낄 가능성이 있다고 Blumenthal-Barby는 말합니다. 그녀는 “그것은 가족 구성원에게 매우 지저분하고 매우 괴로운 일이 될 수 있습니다.”라고 말합니다.
“제가 가장 걱정하는 것은 누가 그것을 통제하는가입니다.” 웬들러는 말한다. 그는 예를 들어 병원이 P4와 같은 도구를 오용하여 값비싼 시술을 피하는 것을 두려워한다. 그는 “모든 종류의 재정적 인센티브가 있을 수 있습니다.”라고 말한다.
연락받은 모든 사람들 MIT 기술 리뷰 P4와 같은 도구의 사용은 선택 사항이어야 하며 모든 사람에게 어필하지는 않을 것이라는 데 동의합니다. Earp는 “어떤 사람들에게는 도움이 될 가능성이 있다고 생각합니다.”라고 말합니다. “인공 시스템이 어떤 식으로든 의사 결정에 관여해야 한다는 생각에 불편함을 느끼는 사람이 많을 것이라고 생각합니다. 그 이유는 그들이 처한 상황이기 때문입니다.”