미리보기
미리듣기
AI 기술의 발전과 함께 나타나는 윤리적, 사회적, 안보적 문제를 다루며, AI 거버넌스의 중요성을 조명한다. AI 거버넌스는 AI의 개발, 사용, 배포와 관련된 정책, 규범, 법률을 포함하며, 이를 통해 AI 기술의 안전성과 인간 중심의 통제를 보장하려는 노력을 다룬다.
훈련된 데이터에 편향성이 있다면 부당하고 차별적인 결과물이 나올 수 있고, 이를 학습한 AI 시스템이 사회적 차별을 심화하는 부작용을 가져올 수 있다. 일례로 2014년부터 아마존은 AI 채용 시스템을 도입하려는 야심찬 프로젝트를 준비했으나, 남성 중심의 데이터셋으로 인해 여성에 대한 편견과 차별이 나타났고, 결국 프로젝트를 폐기했다. 2021년 한국에서 출시된 챗봇 ‘이루다’는 여성과 성소수자를 혐오하는 발언으로 서비스가 중단되기도 했다.
-01_“AI는 안전한가” 중에서
투명성은 그 맥락에 따라 다소 차이가 있다. 정책적 측면에서 투명성은 주로 의사 결정이 어떻게 이루어지는지, 누가 그 과정에 참여하는지, 어떤 요소를 사용하는지 등 내부를 공개하는 것이다. 반면 기술적 측면에서는 AI 시스템이 어떻게 개발되고 훈련되며 배치되는지를 일반인이 이해하도록 하는 것을 의미하며, 영업 비밀에 속하는 특정 소스코드나 데이터셋의 공개를 요구하지는 않는다. 어느 수준의 투명성을 요구할지 많은 논란이 있지만, AI 시스템의 투명성 원칙은 설명 가능성에 초점을 두어 그 결정과 행위에 대해 알아듣기 쉽게 설명할 것을 요구한다.
-04_“몇 가지 핵심 원칙” 중에서
규제 방식에서 상향식 접근과 하향식 접근이 구분된다. 상향식은 AI 행위자의 자율적 문제 해결과 능동적 참여를 강조하는 반면, 하향식은 AI 개발·사용에 대한 선험적 규칙과 제재 부과에 초점을 둔다. 전자에는 미국의 위험 관리 체제, 후자에는 EU 인공지능법이 해당된다.
-06_“위험 관리 규제” 중에서
자율주행차가 실제 도로를 주행하려면 그에 맞는 법적 체계가 갖추어져야 한다. 정부는 자율주행차의 안전성과 신뢰성을 확보하기 위해 다양한 분야에서 적절한 기준을 설정하고, 이해관계자와 협의를 거쳐 각종 제도적 장치를 마련해야 한다.
-09_“자율주행 시스템” 중에서