AI는 건강 형평성 개선에 있어서 친구일 수도 있고 적대적일 수도 있다.
의료 불평등과 치료의 격차는 사회경제적, 인종적, 성적 격차에 걸쳐 만연하다. 사회로서 우리는 이러한 격차를 메우고 모든 사람이 일관되고 공정하며 저렴한 의료에 접근할 수 있도록 보장할 도덕적, 윤리적, 경제적 책임이 있다.
AI 기반 의료 솔루션을 개발하고 배포하는 우리는 AI가 의도치 않게 기존 격차를 넓히는 것을 방지하고, 관리 기관과 전문 협회는 편견을 피하거나 완화하기 위한 보호 장치를 구축하는 데 적극적인 역할을 해야 한다.
AI를 활용하여 불평등 격차를 넓히는 대신 메우는 방법은 다음과 같다:
임상 시험에서 형평성 달성
역사적으로 많은 신약 및 치료 시험은 의도적이든 아니든 설계에 편향이 있었다. 예를 들어, 여성이 NIH 자금 지원 임상 연구에 참여하도록 법으로 요구된 것은 1993년이 되어서였다. 최근에는 코로나 백신이 임산부를 대상으로 의도적으로 시험된 적이 없었다. 백신 접종 당시 일부 시험 참가자가 임신 사실을 모르고 있었기 때문에 백신이 안전하다는 것을 알았다.
연구의 과제는 우리가 모르는 것을 모른다는 것이다. 그러나 AI는 인구 데이터를 분석하고 불균형한 표현이나 인구 통계적 범위의 격차를 표시하여 편향된 데이터 세트를 발견하는 데 도움이 된다. 다양한 표현을 보장하고 대상 인구를 정확하게 나타내는 데이터에 대한 AI 모델을 훈련함으로써 AI는 포용성을 보장하고 피해를 줄이며 결과를 최적화하는 데 도움이 된다.
공평한 대우 보장
출산 중 통증과 합병증을 겪는 흑인 임산부는 종종 무시당하는 것으로 잘 알려져 있으며, 그 결과 소득이나 교육 수준에 관계없이 흑인 여성의 산모 사망률이 비히스패닉 백인 여성보다 3배 더 높다. 이 문제는 주로 내재적 편견에 의해 지속된다. 의료 전문가들 사이에 흑인이 백인보다 통증에 대한 내성이 더 강하다는 오해가 널리 퍼져 있다.
AI 알고리즘의 편견은 문제를 더 악화시킬 수 있다. 하버드 연구원들은 일반적인 알고리즘이 흑인과 라틴계 여성이 제왕 절개(VBAC) 후 질 분만에 성공할 가능성이 낮다고 예측한다는 것을 발견했으며, 이로 인해 의사들이 유색인종 여성에게 더 많은 제왕 절개를 시행했을 수 있다. 그러나 연구원들은 "이 연관성은 생물학적 타당성에 의해 뒷받침되지 않는다"고 밝히며 인종이 "건강에 미치는 인종주의의 영향을 반영하는 다른 변수의 대리"라고 제안했다. 이후 알고리즘은 위험을 계산할 때 인종이나 민족을 제외하도록 업데이트되었다.
이는 AI가 암묵적 편견을 근절하고 이전에 간과되었을 수 있는 치료 경로를 (증거와 함께) 제안하는 데 완벽한 응용 프로그램이다. "표준 치료"를 계속 실행하는 대신 AI를 사용하여 이러한 모범 사례가 모든 여성의 경험에 기반한 것인지 아니면 백인 여성만인지 확인할 수 있다. AI는 데이터 기반에 의료 및 기술의 발전으로 가장 많은 이익을 얻을 수 있는 환자가 포함되도록 하는 데 도움이 된다.
인종과 민족이 영향을 미치는 요인이 될 수 있는 상황이 있을 수 있지만, 언제 어떻게 고려해야 하는지, 그리고 언제 단순히 역사적 편견에 따라 인식과 AI 알고리즘을 알리는지 신중하게 알아야 한다.
공평한 예방 전략 제공
AI 솔루션은 잠재적 편견을 신중하게 고려하지 않고 소외된 커뮤니티의 특정 조건을 쉽게 간과할 수 있다. 예를 들어, 재향군인청은 심장병과 심장마비의 징후를 예측하고 감지하기 위한 여러 알고리즘을 개발하고 있다. 이는 엄청난 생명을 구할 수 있는 잠재력이 있지만, 대부분의 연구는 역사적으로 심혈관 질환이 사망 원인 1위인 여성을 많이 포함하지 않았다. 따라서 이러한 모델이 남성과 매우 다른 증상을 보이는 여성에게 효과적인지 여부는 알 수 없다.
이 데이터 세트에 비례하는 수의 여성을 포함하면 조기 발견 및 개입을 통해 매년 여성에서 발생하는 320만 건의 심장마비와 50만 건의 심장 관련 사망을 예방하는 데 도움이 될 수 있다. 마찬가지로 새로운 AI 도구는 신장 질환 검진에서 인종 기반 알고리즘을 제거하고 있다. 이 알고리즘은 역사적으로 흑인, 히스패닉계 및 아메리카 원주민을 배제하여 치료 지연과 임상적 결과가 좋지 않았다.
소외된 개인을 배제하는 대신 AI는 실제로 소외된 인구의 건강 위험을 예측하고 개입을 더 잘 타겟팅하기 위한 개인화된 위험 평가를 가능하게 할 수 있다. 데이터는 이미 있을 수 있다. 단순히 인종, 성별 및 기타 인구 통계적 요인이 결과에 어떤 영향을 미치는지 확인하기 위해 모델을 "조정"하는 문제이다.
행정 업무 간소화
AI는 환자 결과에 직접적인 영향을 미치는 것 외에도, 격차를 줄이기 위해 백그라운드에서 워크플로를 가속화할 수 있는 엄청난 잠재력을 가지고 있다. 예를 들어, 기업과 제공자는 이미 AI를 사용하여 청구 코딩 및 판정의 격차를 메우고, 의사의 메모와 진단 코드를 검증하고, 일반적인 진단 절차에 대한 사전 승인 프로세스를 자동화하고 있다.
이러한 기능을 간소화함으로써 운영 비용을 대폭 절감하고, 제공자 사무실이 보다 효율적으로 운영되도록 돕고, 직원이 환자와 함께 보낼 수 있는 시간을 늘려서 기하급수적으로 더 저렴하고 접근하기 쉬운 치료를 제공할 수 있다.
우리 각자는 중요한 역할을 해야 한다.
우리가 이러한 놀라운 도구를 사용할 수 있다는 사실은 의료 편견을 근절하고 극복하기 위해 이를 사용하는 것이 더욱 시급하다는 것을 의미한다. 안타깝게도 미국에는 AI를 사용하여 의료 제공을 "편견 없이" 하는 노력을 규제하는 인증 기관이 없으며, 지침을 제시한 조직조차도 이를 준수할 규제적 인센티브가 없다.
따라서 AI 실무자, 데이터 과학자, 알고리즘 작성자 및 사용자로서 포용성, 데이터의 다양성 및 이러한 도구와 통찰력의 공평한 사용을 보장하기 위한 의식적인 전략을 개발해야 할 책임이 있다.
이를 위해서는 정확한 통합과 상호 운용성이 필수적이다. 웨어러블 기기와 타사 실험실 및 영상 제공자부터 1차 진료, 건강 정보 교환 및 입원 환자 기록에 이르기까지 수많은 데이터 소스가 있으므로 소스의 형식에 관계없이 핵심 부분이 포함되도록 이 모든 데이터를 통합해야 한다. 산업은 다양한 문화와 언어에 따라 다른 이름 철자법이나 명명 규칙이 있더라도 필수적인 환자 데이터가 포함되도록 데이터 정규화, 표준화 및 ID 매칭이 필요하다.
또한 AI 개발 프로세스에 다양성 평가를 구축하고 시간이 지남에 따라 메트릭의 "드리프트"를 모니터링해야 한다. AI 실무자는 인구 통계 하위 그룹에서 모델 성능을 테스트하고 편향 감사를 수행하며 모델이 결정을 내리는 방식을 이해할 책임이 있다. 분석이 구축하는 인구를 나타내도록 하려면 인종 기반 가정을 넘어야 할 수도 있다. 예를 들어 애리조나주 길라 강 보호 구역에 사는 피마 인디언 부족의 구성원은 비만과 2형 당뇨병 비율이 매우 높은 반면, 멕시코 시에라 마드레 산맥의 국경 바로 건너에 사는 같은 부족의 구성원은 비만과 당뇨병 비율이 현저히 낮아 유전학이 유일한 요인이 아니라는 것을 증명한다.
마지막으로, 미국 의학 협회, 국립 건강 정보 기술 조정 사무소, 미국 산부인과 대학, 미국 소아과 학회, 미국 심장과 대학 등과 같은 전문 기관이 함께 협력하여 데이터 교환 및 예민성에 대한 표준과 프레임워크를 설정하여 편견을 방지해야 한다.
건강 데이터 공유를 표준화하고 HTI-1 및 HTI-2를 확장하여 개발자가 인증 기관과 협력하도록 요구함으로써 규정 준수를 보장하고 과거의 불평등 오류를 바로잡는 데 도움이 된다. 또한 완전하고 정확한 환자 데이터에 대한 액세스를 민주화함으로써 편견을 영속시키는 장애물을 제거하고 AI를 사용하여 보다 포괄적이고 객관적인 통찰력을 통해 치료 격차를 해결할 수 있다.