미리보기
미리듣기
딥페이크와 허위 정보가 범람하는 시대, AI 팩트체크가 해법으로 떠올랐다. 주장 탐지부터 멀티모달 검증까지 기술의 가능성을 짚고, 맥락 이해 부족과 책임 문제라는 한계를 함께 분석한다. 인간과 AI의 협력 모델을 제시하는 안내서다.
생성형 AI를 활용한 허위 콘텐츠가 폭발적으로 늘어나면서, 기존 팩트체커가 모든 정보를 감당하기 어려운 상황이 됐다. 텍스트뿐 아니라 이미지와 영상, 음성을 결합한 허위 정보가 동시에 쏟아지면서 검증 대상의 양과 형태 모두가 과거와는 비교할 수 없을 만큼 복잡해졌기 때문이다. 물론 팩트체크 시스템에도 일부 자동화 도구가 도입되긴 했다. 다만 이는 보조적 수준에 머물러 있다. 인간 팩트체커가 자료를 수집하고 판단하는 기존 구조로는 실시간으로 확산하는 허위 정보의 속도와 규모를 따라잡기 어렵다. 사실이 확인되기 전 이미 허위 정보가 광범위하게 퍼지는 일이 반복되고 있는 실정이다.
-01_“허위 정보와 팩트체크 저널리즘” 중에서
팩트체크 해야 할 대상이 정해지면 AI는 본격적으로 근거를 수집한다. 정부 보고서를 비롯한 공공 데이터, 학술 논문, 국제기구 통계, 언론 기사, 전문 연구기관 보고서를 찾는다. AI는 단순히 같은 단어가 들어 있는 문서만 모으지 않는다. 문장 의미까지 이해해 유사한 개념을 함께 검색하는 식이다. (…) 그러나 이런 방식은 최신 정보 반영이 어렵고, 검색된 자료가 제한적이었다.
-03_“AI 팩트체크 작동 원리” 중에서
유럽의 AI 팩트체크 생태계는 미국과 다르다. 미국에선 언론사와 대학, 연구센터가 협력해 자동화 도구를 개발하고 실험해 왔다. 반면 유럽 기관은 데이터를 직접 수집하고 모델까지 훈련시키는 독립형 AI 팩트체크 인프라를 구축했다. 가장 대표적인 사례는 풀팩트다. 풀팩트는 2010년 영국에 설립된 비영리 팩트체크 센터다. 정치뿐 아니라 경제, 보건, 이민, 환경까지 다양한 주제를 검증한다. 유럽 전체를 놓고 보면 AI를 활용한 팩트체크 분야에서 풀팩트가 가장 앞서 있다. 단순히 AI를 팩트체크 지원 도구로 쓰는 데 그치지 않고, 스스로 데이터와 모델을 만들어 자동화 시스템을 구축해 왔다는 이유에서다.
-06_“유럽 AI 팩트체크” 중에서
또 AI 팩트체크 도구가 오류를 냈을 시 책임 소재가 명확하지 않은 점도 한계다. 사실 책임질 주체는 많다. 도구를 만든 개발자와 알고리즘 설계자, 이를 서비스에 배포하고 운영하는 기업, 결과를 활용해 보도나 의사 결정을 내리는 사용자, 이를 감독하는 공공 기관까지 모두 책임 대상이 될 수 있다. 그러나 실제 사고가 일어났을 때 어느 한쪽이 전적으로 책임을 져야 한다고 말하기는 어렵다. 책임을 추적하려면 “왜 이런 판단이 나왔는지” 설명할 수 있어야 한다. 하지만 많은 AI 시스템은 내부 작동 방식을 드러내지 않는다. 모델이 어떤 데이터와 규칙으로 결정을 내렸는지 알 수 없으니, 책임을 따지기가 어렵다.
-09_“AI 팩트체크 한계” 중에서
