미리보기
미리듣기
현대 인공지능은 데이터 학습 과정에서 인간의 편향을 내포한다. AI 편향의 개념과 원인을 밝히고 윤리적·사회적 영향과 완화 방안을 제시한다.
인공지능 윤리 및 신뢰성의 다양한 점검 항목 각각에 대해 ‘표준(standard)’이 여러 기관에서 개발되고 있다. ‘표준’은 개발자와 조직이 보다 책임감 있고 투명한 인공지능 시스템을 개발하고 배포할 때 가이드라인과 우수 사례 홍보를 포함하는 모범 사례로 역할을 한다. 대표적으로, IEEE(국제전기전자공학자협회)에서는 다양한 신뢰성 항목들에 대한 표준들을 개발하고 있으며, 인공지능 편향성에 대해서는 ‘IEEE P7003: 알고리즘 편향 고려 사항 표준(IEEE 2025)’이라는 이름으로 보고서 작업을 진행 중이다. 이 표준은 IEEE 자율 및 지능형 시스템 윤리 글로벌 이니셔티브의 일부이며 알고리즘 의사 결정 시스템에서 의도치 않은, 정당화되지 않은, 부적절한 편향을 식별하고 완화하는 데 개인이나 조직에 개발 프레임워크를 제공하려는 것이다.
-01_“인공지능 편향 정책” 중에서
통계적 공정성이란 모든 집단이 동일한 비율의 결과를 가지는 상태로, 결과의 수학적 동등성에 초점을 맞추는 종류의 공정성을 의미한다. 예컨대 대출 승인에서 모든 인종 집단이 동일한 비율로 승인을 받아야 한다는 기준을 세우는 경우다. 이러한 기준은 개인의 자격이나 능력을 고려하지 않고 단순히 집단 간 비율만을 맞추기 때문에 개인의 특수 상황을 고려하기 어렵다. 이러한 이유로 통계적 공정성은 다른 의미의 불공정성, 즉 ‘형평성 (equity)’의 관점에서는 불공정하다.
-03_“보호 속성과 인공지능 공정성” 중에서
그러나 주어진 시간과 재원은 한정되어 있기에 다양성과 데이터의 양을 무조건 늘리는 것은 현실적이지는 않다. 따라서 샘플의 ‘대표성’ 또한 중요하다. 의도된 인종 차별은 아니지만 인공지능이 학습하는 데이터는 그 양에서 특정 집단, 특정 속성에 치중될 가능성이 높다. 이 편향은 인공지능이어서 가지게 되는 편향이라기보다는 인간 사회가 이미 가지고 있는 데이터의 불균형이 반영된 결과다. 데이터를 수집하고 기술 구축 및 구현을 담당하는 팀에 다양성이 부족할수록 부정적인 결과의 가능성이 커진다. 예를 들어 특정 집단과 관련한 데이터가 의도치 않게 배제되면, 데이터가 모델 학습에 사용되는 방식 때문에 궁극적으로 데이터 품질에 영향을 주게 된다.
-06_“인공지능 구성 단계에서의 편향” 중에서
사후 처리 방법 중 하나인 임곗값(threshold) 조정은 집단별로 서로 다른 결정 임곗값을 적용하여 공정성을 향상하는 방법이다. 예컨대 균등 기회 기준을 사용할 경우, 각 집단의 진양성율을 동일하게 맞추는 것을 목표로 할 수 있다. 또 인구 통계학적 동등성 기준을 선택해 사용할 경우, 각 집단의 긍정 예측 비율을 동일하게 맞추도록 할 수 있다. 동등한 가능성 기준을 선택할 경우, 진양성율과 위양성율을 모두 동일하게 맞추도록 하여 편향을 조정할 수 있다. 구체적으로 특권 혹은 비보호 집단(privileged group)(예: 고소득층)의 임곗값이 0.5라면, 보호 집단(예: 저소득층)의 임곗값은 0.3으로 낮춰서 진양성율을 맞출 수 있다. 보호 집단의 대출 승인 가능성을 높이기 위한 조치다. 이렇게 임곗값을 차등 적용하면, 보호 집단의 경우 신용 점수가 0.3 이상이면 대출이 승인되므로, 기존에 0.5 이상이어야 했을 때보다 더 많은 사람들이 대출 기회를 얻게 된다. 이를 통해 두 집단 간의 대출 승인율 격차가 줄어들어 공정성이 개선된다.
-09_“정확도ᐨ공정성 트레이드오프” 중에서