미리보기
의료 AI는 높은 정확도를 자랑하지만, 신뢰받기 위해서는 설명 가능성이 필수적이다. 이 책은 의료 AI의 발전 과정(AI 1.0~3.0)과 최신 기술(파운데이션 모델, 생성 AI)을 분석하며, AI의 정확성, 임상적 유용성, 설명 가능성이 어떻게 조화를 이뤄야 하는지를 탐구한다. 특히, AI의 ‘블랙박스 문제’ 해결을 위한 설명 가능한 AI 기술을 다루며, 의료진과 환자가 신뢰할 수 있는 AI의 조건을 제시한다.
좋은 의료 AI의 핵심 요소 중 하나는 설명 가능성이다. 아무리 정확도가 높더라도 판단 과정을 이해하기 어렵다면 의료진과 환자는 AI 사용을 주저할 수 있다. 설명 가능한 AI는 의료 AI의 의사 결정 과정을 인간이 이해하고 해석할 수 있도록 도와주는 기술이다. 이는 의사와 환자 간의 원활한 소통을 도울 뿐만 아니라 의료 기기의 인허가 과정과 신뢰성 확보에도 필수적이다.
-“AI의 세대 변화와 좋은 의료 AI의 조건” 중에서
의료 AI는 정확도와 해석 가능성에 따라 블랙박스 모델과 화이트박스 모델로 구분된다. 블랙박스 모델은 높은 정확도를 제공하지만 해석이 어려워 신뢰성에 한계가 있다. 화이트박스 모델은 내부 작동 원리와 결정 과정이 드러나는 투명한 모델이지만 복잡한 데이터 패턴을 처리하는 데 한계가 있다. 설명 가능한 AI 기술을 활용하면 높은 정확도를 유지하면서도 해석 가능성을 높일 수 있다.
-01_“블랙박스 모델과 화이트박스 모델” 중에서
설명 가능한 AI는 AI 의사 결정 과정과 그 근거를 명확하게 제공함으로써 책임 소재를 규명하고 AI 사용의 신뢰성을 높일 수 있다. 또한 설명 가능한 AI는 결정 과정의 투명성을 제공하여 국가 간의 상이한 의료 AI 규제 속에서도 국제적 협력을 촉진할 수 있다.
-04_“의료 AI 인허가 규제와 설명 가능한 의료 AI” 중에서
과학의 핵심은 원인과 결과를 명확히 이해하는 것인데, 현재의 AI는 도출 과정을 명확하게 설명하지 못하고 결과만을 제공하는 경우가 많다. AI가 연구 도구로서 매우 유용하더라도, 그 결과를 도출하는 과정을 명확히 이해하고 작동 원리와 메커니즘을 규명하는 노력이 필요하다. AI가 단순한 블랙박스로 남지 않기 위해서는 AI가 제시한 분자 구조나 치료 방법이 왜 효과적인지에 대한 설명이 중요하다.
-07_“생성 의료 AI, 헬스케어 챗봇과 신약 개발 AI” 중에서