Search

설명 가능한 AI의 허와 실

발행일
2026/01/30
저자
김윤명
쪽수
127쪽
차례
설명 가능한 AI는 실현 가능한가? 01 설명 가능성이란 무엇인가: 기술적 개념과 오해 02 블랙박스 AI의 기술적 한계: 설명이 불가능한 구조인가? 03 법은 설명을 요구할 수 있는가: 설명 가능성의 규범화 04 AI 설명이 미치는 영향: 책임과 정당성의 연결 고리 05 설명이 차별을 해명할 수 있는가: 편향과 불공정성의 진단 도구 06 설명의 허구: 기업의 책임 회피 도구가 되는가? 07 국제 비교: EU, 미국, 일본의 설명 가능성 규범과 사례 08 설명 가능 AI와 인간-기계 상호 작용의 재설계 09 설명의 비용과 현실성: 어느 수준까지 강제할 수 있는가 10 설명 가능성 이후: 책임 사슬, 데이터 투명성, 거버넌스로 확장하기
정가
12000원
ISBN
9791143010735
분야
AI
3 more properties
미리보기
미리듣기
설명 가능한 AI(XAI)는 AI의 판단 이유를 인간이 이해할 수 있게 제시하려는 기술이지만, 실제로는 그럴듯한 ‘겉보기 설명’에 그쳐 책임 확인에 한계가 있다. 설명 가능성은 결정의 기준과 과정을 이해·검증할 수 있는 능력을 의미하며 권리 보장의 전제다. 《설명 가능한 AI의 허와 실》은 XAI의 기술적 한계, 법적 설명의 필요, 책임·편향 문제, 국제 규범, 감시 체계 등을 다각도로 분석하며 설명 가능성을 사회적 통제의 원리로 재정립한다. AI문고.
어떤 기준은 형식적 평등(formal equality)을 강조하고, 어떤 기준은 실질적 평등(substantive equality)을 요구한다. 가령 “모두에게 같은 기준을 적용했다”는 설명이 법적으로는 정당해 보일 수 있지만, 사회학적으로는 기존 불평등을 고착화하는 ‘차별의 재생산’이 될 수 있다. 설명 기술은 이러한 다층적 판단 구조를 고려하지 않고 결과 수치에 집중하는 경향이 있다. 결국 차별 탐지 알고리즘은 사회 과학적 통찰 없이는 법적 정의에 부합하는 설명을 제공하기 어렵다. 법은 인간 존엄성과 사회적 약자 보호를 핵심 가치로 삼기 때문에 단지 알고리즘이 출력한 수치나 시각화를 넘어, 왜 그러한 결과가 나왔는지, 그것이 사회 구조 속에서 어떤 의미를 가지는지를 종합적으로 해석해야 한다. 기술적 설명이 정답을 제공하는 것이 아니라 사회적 판단을 위한 자료로 기능해야 하는 이유다. -05_“설명이 차별을 해명할 수 있는가: 편향과 불공정성의 진단 도구” 중에서 설명 가능성이라는 개념은 종종 기술적으로 설명 가능한 구조의 존재를 의미하는 것으로 오해된다. 설명이 존재한다는 것과 설명이 인간에게 이해된다는 것은 전혀 다른 문제다. 인간 사용자에게 ‘이해 가능한 설명’이란 단지 정보를 제공받는 것을 넘어 그 정보를 자기 맥락 속에서 납득할 수 있도록 해 주는 과정을 포함한다. -08_“설명 가능 AI와 인간-기계 상호 작용의 재설계” 중에서 설명 가능성은 AI 시스템의 결과를 이해하는 출발점이지만 법적 책임을 묻기 위해서는 보다 깊은 층위의 ‘책임 추적성’이 필요하다. 이는 결과 중심의 설명을 넘어서 AI 개발·운영 과정 전반에 걸친 책임의 흐름을 기록하고 규명할 수 있어야 한다는 요구다. 책임 추적성은 입력 데이터의 출처, 모델 개발의 의사 결정, 알고리즘의 버전 변화, 시스템 운영 중 발생한 수정·보완 조치 등의 모든 이력을 투명하게 남기는 것을 의미한다. 이 과정은 단지 사후 설명을 위한 것이 아니라 예방적 통제를 위한 기반이기도 하다. -10_“설명 가능성 이후: 책임 사슬, 데이터 투명성, 거버넌스로 확장하기” 중에서
교보문고: 알라딘: 예스24: