미리보기
미리듣기
인공지능 기술이 초래할 수 있는 인권 침해의 가능성과 그 해결책을 다각도로 모색한다. 기술의 진보가 결코 인간의 존엄을 훼손해서는 안 된다는 사실을 다시 일깨운다. 인공지능총서.
단지 AI가 인간의 일자리를 뺏고, 전문직을 사라지게 하는 것과는 전혀 다른 기술의 시대가 다가오고 있음을 느낀다. 아직도 많은 과학기술자들은 ‘마음’을 가진 AI가 탄생하기까지는 갈 길이 멀다고 한다. 하지만 AI 기술이 가져다 줄 장밋빛 미래, 즉 미래세대를 위한 새로운 산업혁명의 시대가 바로 코앞에 와 있다는 기쁜 소식에도 불구하고 왠지 불길한 느낌을 갖게 되는 것은 일반 시민, 특히나 사회적 약자와 소수자들만의 생각일까?
-01_“AI 시대의 인권” 중에서
이미 2017년 영국의 한 보건 신탁은 환자 본인의 적절한 동의 없이 160만 명의 환자 데이터를 구글 딥마인드(Google DeepMind)와 공유하였고, 2013년부터 2018년까지 케임브리지 애널리티카(Cambridge Analytica)는 정치 광고에 사용하기 위해 사전 지식이나 동의 없이 최대 8700만 명의 페이스북 사용자의 개인 데이터를 수집했다. AI 얼굴 인식 데이터베이스를 생성하기 위해 공개적으로 사용 가능한 이미지를 사용하는 관행은 이미 공지의 사실이다. 인터넷에서 수집한 100억 개의 이미지 데이터베이스를 법 집행 목적으로 사용하는 기술이 호주, 캐나다, 프랑스 및 영국을 포함한 여러 국가에서 「개인정보 보호법」을 위반한 것으로 밝혀졌다.
-03_“AI와 시민 인권: 자기 정보 결정권, 저작권” 중에서
미국 펜실베이니아주립대 정보과학기술과(IST) 연구진들은 2023년 12월 SNS 서비스가 장애인에 대한 AI 편향성에 악영향을 줄 수 있다고 밝혔다. 연구진은 고의적인 편향성뿐만 아니라 장애인에 대한 무의식적인 부정적 고정관념을 학습할 수 있다는 점을 증명했다. 나아가 연구팀은 ‘온라인 커뮤니티’가 자연어처리(NLP) AI 모델 장애 편향에 어떤 방식으로 악영향을 미칠 수 있는지에 대한 연구도 진행하였다. 그 결과 온라인 커뮤니티의 게시물, 댓글을 학습한 AI는 장애에 대해 훨씬 더 부정적 편향성을 드러냈다. 벤킷 IST 연구원은 “우리가 연구한 모든 AI 모델은 문맥상 의미를 고려하지 않고 ‘맹인’과 같은 장애 관련 용어가 들어가면 문장을 부정적이고 유해한 것으로 분류했다”며, “이는 장애와 관련된 용어에 대한 명시적인 편견을 보여준다”라고 우려했다.
-06_“AI와 장애인 인권” 중에서
유엔 인권최고대표는 2021년 “디지털 시대 프라이버시 권 보고서”에서 “AI 시스템의 설계, 개발, 배치, 판매, 구입, 운영의 수명 주기 전반에 걸쳐 체계적으로 인권 실사(Due Diligence)를 수행”할 것을 권고하면서, 인권 실사의 핵심 요소로 ‘인권 영향 평가’를 강조하였다. 국가인권위원회도 2024년 5월 과학기술정보통신부장관에게 AI의 개발과 활용으로 인한 인권 침해 및 차별이 발생하지 않도록 관련 정책·사업계획의 수립·이행 시에 ‘AI 인권 영향 평가 도구’를 활용하고, 인권 영향 평가가 법제화되기 전까지 공공기관이 직접 개발하거나 활용하는 모든 AI와 민간 부문의 고위험 AI에 대한 자율적 인권 영향 평가가 수행될 수 있도록 위 평가 도구를 보급할 필요가 있다는 의견을 표명한 바 있다.
-09_“보장 규범을 위한 국내의 노력” 중에서