미리보기
생성형 AI 시대의 프라이버시, 저작권, 알고리즘 편향 등 주요 윤리 문제를 다양한 사례와 함께 짚고, 국제적·국내 윤리 기준과 대응 방안을 소개한다.
암호화 과정인 인코더(encoder)와 해독화 과정인 디코더(decoder) 사이에서 커뮤니케이션의 주체는 인간과 AI다. 인간이 AI에게 명령어를 입력하면 암호화 과정이 시작되며, 이것을 AI가 해독화하는 과정에서 수많은 데이터가 동원된다. 예를 들어 당신이 “빨간색 과일을 찾아줘”라는 명령어를 생성형 AI에게 입력하면 그것은 AI에게 일종의 암호다. AI는 이 암호를 해독하기 위해 자신이 학습한 데이터를 총동원해 그중 가장 관련도가 높은 응답을 찾아내는 해독화 과정을 진행한다. 그리고 “빨간색 = 과일”이라는 암호에 관련도 높은 학습 결과물을 도출하고, 당신에게 “사과, 딸기, 석류, 체리, 토마토”의 결과물을 제시한다. 여기에서 더 나아가 당신이 어떠한 추가 질문을 할 것인지도 미리 예측해 “토마토는 사실 과일입니다”라는 문장과 이를 입증할 수 있는 참고 문헌도 함께 제시하는 센스를 발휘할 정도로 생성형 AI의 트랜스포밍 능력은 나날이 발전되고 있다.
-01_“AI와 생성형 AI” 중에서
하지만 2016년 미국 대선 당시 ‘프란체스코 교황이 트럼프 후보를 지지했다’, ‘힐러리 클린턴 후보가 IS에 무기를 팔았다’, ‘트럼프 후보가 감옥에 수감됐다’는 허위 조작 정보들이 소셜 미디어를 통해 급속히 확산됐다. 소위 딥페이크를 이용한 ‘가짜 뉴스’가 등장한 것이다. 특히 인공지능 기술로 가상의 인물을 만들거나 기존의 영상, 이미지를 쉽게 변형하고 합성할 수 있게 되면서 눈속임은 더 쉬워졌다. 실제로 영국 랭커스터 대학과 미국 버클리 캘리포니아 대학 연구진이 AI로 만든 가짜 얼굴과 실제 인물 사진을 사람들이 얼마나 잘 구별하는지 실험한 결과, 참여자의 절반가량이 실제 사진과 합성 사진을 구분하지 못했다고 한다(언론중재위원회, 2020). 국내에서도 2024년 과학기술정보통신부가 ‘딥페이크 가짜 뉴스 대응’을 주제로 대국민 의견을 수렴한 결과, 응답자의 41.9%가 딥페이크 가짜 뉴스를 판별할 수 없다고 답했다.
-03_“AI 시대 미디어의 사각지대” 중에서
2023년 10월, UN은 AI 거버넌스의 국제 사회 노력을 지원하기 위해 AI 자문 기구를 출범시켰다. 당시 UN 사무총장이었던 안토니우 구테흐스는 “AI가 선의를 위한 변화를 가져올 수 있다는 잠재력은 파악하기 어렵다”며, AI의 악의적 사용이 사회적 응집력을 약화시키며 민주주의 자체를 위협할 수 있다는 것은 이미 분명하다는 점을 강조했다. 그리고 인류 전체에 대한 혜택을 극대화하고 위험을 감소하기 위해 글로벌ᐨ학제 간ᐨ이해관계자 간 대화가 이뤄지기 위한 장이 필요함에 따라, 그러한 거버넌스 역할을 수행하게 될 AI 자문 기구가 출범하게 됐음을 밝혔다.
-06_“UN의 AI 가이드라인과 미디어 윤리” 중에서
한편, AI법은 제4장에서 ‘인공지능 윤리와 신뢰성 확보’를 별도로 규정하고 있다. 이에 따르면 정부는 인공지능 윤리 원칙을 대통령령으로 정하는 바에 따라 제정·공표할 수 있으며(제27조), 인공지능 연구개발 기관·사업자는 민간 자율 인공지능 윤리위원회를 둘 수 있다(제28조). 또한 정부는 인공지능이 국민의 생활에 미치는 잠재적 위험을 최소화하고 안전한 인공지능의 이용을 위한 신뢰 기반을 조성하기 위한 시책을 마련(제29조)해야 하며, 과학기술정보통신부 장관은 AI 개발에 관한 가이드라인 보급 등 인공지능의 안전성·신뢰성을 검증·인증하기 위한 지원(제30조)을 해야 한다.
-09_“AI 시대 미디어 윤리의 시사점” 중에서