미리보기
미리듣기
인공지능 기술의 급속한 발전과 그에 따른 위험을 다룬다. AI의 혁신적 잠재력과 부작용, 정보의 신뢰성 문제, 딥페이크와 감시 사회 등 사회적 문제를 분석하고 AI의 안전한 공존을 위한 글로벌 협력과 규제의 중요성을 강조한다.
최근 인공지능의 부상과 함께 인공지능의 잠재적 위험에 대한 우려도 커지고 있다. 확률적 추정에 기반한 인공지능 모델은 산출 결과에 부정확한 정보가 포함된 환각(hallucination) 증상을 보인다. 거짓과 엉뚱한 정보가 포함된 인공지능 산출물을 그대로 믿고 적용할 시 낭패를 볼 수 있다. 정교한 이미지를 생성하는 인공지능 때문에 딥페이크 사진, 영상, 음성 정보가 급증하고 있다. 유명인의 딥페이크는 거짓 정보와 결합해 사회적 혼란을 일으킨다. 방대한 지식을 학습한 인공지능을 활용해 불법적인 화생방 무기를 만들거나, 악성 코드 제작을 쉽게 해 광범위한 물리적 피해로 연결될 우려를 낳기도 한다.
-01_“AI, 21세기 프로메테우스의 불” 중에서
이스라엘 전장에서 가동되는 핵심 시스템 라벤더(Lavender)는 하마스와 팔레스타인 이슬라믹 지하드(PIJ)의 전투원들과 구성원으로 의심되는 표적을 식별하도록 설계된 인공지능 시스템이다. 이스라엘은 하마스와 전쟁 초기 거의 몇 주 동안 전적으로 라벤더에 의존했고, 라벤더는 최대 37000명에 달하는 팔레스타인 남자들을 무장 세력 가담자로 분류해 공습 대상으로 설정했다. 문제는 공습 허용 판단(YES or No)은 충분한 인간의 검증 시간을 주지 않는다는 것이다. 이스라엘군은 사실상 사살 표적을 가감 없이 승인하고, 의사 결정 과정을 관찰할 수도 없었다.
-03_“무인 전쟁의 서막” 중에서
인공지능을 탑재하고 섬세하고 자연스러운 동작이 가능한 휴머노이드가 가정 내 집사로, 공장 내 근로자로 역할하게 될 날이 머지않았다. 인간을 닮은 로봇에 대한 거부감을 일컫는 언캐니 밸리(uncanny valley)와 인간에게 쉬운 일을 제대로 못하는 로봇의 한계를 지적한 모라벡의 역설(Moravec’s paradox)이 극복되고 있다. 2024년 1월 테슬라의 휴머노이드는 빨래 개는 모습을 선보였다. 오픈AI의 합작사인 로봇 제조사 피겨AI는 뭐 좀 먹어도 되느냐는 인간의 질문에 주방 기구 사이에 놓인 사과를 집어 사람의 손에 건네는 모습을 보였다.
-06_“주머니 속으로 들어온 ‘그녀’” 중에서
EU의 인공지능법은 실시간 원격 생체 인식 시스템의 이용을 금지하고 있다. 생체 인식 데이터를 사용해 인종, 성적 취향, 정치적 견해 등 민감한 개인 정보를 추론해 악용할 수 있는 위험 때문이다. CCTV와 같이 개인 안면 정보를 실시간 수집해 딥페이크 이미지나 영상을 만들 수 있는 인공지능도 금지하고 있다. 하지만 인신매매 추적이나 피해자 수색 등 중대 범죄 해결에 필요한 경우 예외를 인정하고 있다. 즉, 국가의 안전, 안보의 명목으로 생체 정보, 개인 정보를 포함한 다양한 정보가 인공지능에 활용될 가능성은 언제든지 있다.
-09_“인공지능 감시 사회” 중에서