미리보기
미리듣기
인공지능은 법률 조사와 문서 작성, 증거 분석을 빠르게 바꾸고 있다. 그러나 허위 정보 생성, 편향, 불투명성, 딥페이크 증거는 실무 위험을 키운다. 이 책은 법조 각 주체의 윤리와 책임, 검증 절차, 제도 정비 과제를 정리한다. AI문고.
AI는 또한 법률 업무의 본질을 재정의할 것으로 전망된다. 판례 검색, 계약서 검토, 소송절차 보조 등 과거 로펌의 영역이던 업무를 기술이 대신하는 시대가 성큼 다가왔다는 평가도 있다. 이러한 변화는 기존 법률 시장의 공급자와 수요자 모두에게 영향을 미치며, AI를 활용하는 변호사는 업무 처리 과정에서 확보된 시간을 활용하여, 보다 가치 있는 법률서비스를 제공하는 데 집중할 수 있게 된다.
-01_“법조계에서 AI 활용의 필요성과 도전 과제” 중에서
검찰은 AI 기반 법률서비스 플랫폼을 활용하여 업무의 효율성을 증진하고 있다. 국내에서도 대검찰청, 경찰청 등이 AI 기반 법률 정보 서비스를 도입하거나 그 활용을 고려하고 있음이 보고되었다. 변호사를 대상으로 하는 AI 기반 서비스는 법률 정보 조사, 계약서 검토, 법률서면 초안 작성, 사건이나 문서 기반 지원, 사례에 대한 문제 해결 등 다양한 형태로 제공되며, 검사들 역시 법률 전문가만을 대상으로 하는 AI 기반의 검색 및 리서치 플랫폼을 사용하고 있음이 확인된다. 이러한 서비스는 단순한 키워드 검색을 넘어, 이용자의 요청을 분석하고 관련 데이터를 바탕으로 정리된 결과물을 제공함으로써 업무 효율을 높인다.
-03_“검찰의 AI 활용” 중에서
더욱 심각한 문제는 데이터와 알고리즘의 편향성이다. AI는 훈련 데이터의 부족한 대표성, 부정확성 또는 특정 집단의 배제 등으로 인해 편향된 결론을 도출할 수 있다. 예를 들어, 미국의 재범 위험성 평가 도구인 COMPAS 알고리즘은 흑인의 재범 위험성을 다른 인종에 비해 과도하게 높게 평가하는 인종적 편향성을 보인 바 있으며, 위스콘신주 대법원에서 COMPAS의 보고서가 젠더에 기반한 차별을 야기할 수 있다는 문제가 제기되기도 했다. 이러한 편향성은 AI 시스템의 결괏값이 다시 훈련 데이터로 활용되면서 기존의 편향성이 더욱 심해지고 고착되는 ‘피드백 루프’라는 악순환을 만들 수도 있다.
-06_“AI와 재판의 공정성” 중에서
AI 알고리즘이 내재한 편향성(bias)은 사법 신뢰를 저해하는 핵심 문제로, AI가 훈련 데이터에 담긴 역사적 또는 사회적 편견을 답습함으로써 불공정한 사법 결과를 초래할 수 있다. AI는 학습 데이터에 편향된 인간의 관념이 내재되어 있다면, 이를 학습하고 유사한 암묵적 또는 명시적 편향을 결과물에 반영한다. 이로 인해 AI가 특정 인종이나 사회 경제적 배경에 따라 불공정한 예측이나 결정을 내릴 위험이 있으며, 이는 평등 원칙과 사법 정의에 심각한 위협이 된다. 또한 AI 알고리즘의 작동 원리가 불투명한 블랙박스 특성은 사법 시스템의 투명성을 저해하는 주된 요인이다. AI가 법률 업무에 활용될 때 발생하는 오류는 인간의 실수보다 훨씬 파괴적일 수 있으며, 일단 발생하면 회복하기 어렵다.
-09_“AI 기술과 사법 신뢰” 중에서
