Search

AI와 OSP 책임

발행일
2025/08/25
저자
김윤명
소속
법학 박사. 디지털정책연구소(DPI) 소장. 이재명 대통령후보(20대, 21대) 캠프 활동. 전 네이버 정책수석.
쪽수
125쪽
차례
왜 AI와 OSP 책임인가? 01 생성형 AI 서비스의 구조 02 OSP 개념과 AI 환경에서의 확장 03 AI 서비스 제공자의 법적 지위 04 AI 서비스 제공자의 법적 책임 05 AI 생성물의 권리 침해와 책임 06 AI 검색과 서비스 제공자 책임 07 AI 서비스와 소비자 보호 08 OSP 면책과 AI 서비스 09 OSP 자율 규제와 거버넌스 10 시사점
정가
12000원
ISBN
9791143005380
분야
AI
사회
2 more properties
미리보기
미리듣기
생성형 AI의 저작권·명예훼손·환각 문제를 중심으로 OSP·ISP·CP의 법적 지위와 책임 범위를 분석한다. 기술 한계와 제도 설계를 함께 짚으며 건강한 AI 생태계를 위한 책임 구조를 제안한다.
AI 모델을 직접 구축하는 데에는 작지 않은 비용이 소요된다. 따라서 직접 모델을 구축하기보다는 제3자가 이미 구축한 모델을 기업 제공(B2B) 방식으로 라이선스해 제공하는 방식이다. 챗GPT의 API를 활용하는 경우가 대표적이다. 챗GPT의 기반 모델인 GPT3 모델을 활용함으로써, 다양한 응용 서비스를 만들 수 있기 때문이다. 물론 기반 모델이 있기 때문에 경쟁력 있는 서비스를 위해서는 별도로 미세 조정을 하게 된다. 임베디드 모델은 미세 조정 과정을 거치면서 특화된 서비스를 제공하는 경우다. 전적으로 제휴사의 LLM만을 의존하는 것이 아닌, 자사가 갖고 있는 데이터를 제공해 미세 조정하는 방식이다. 미세 조정은 기본적인 모델은 LLM의 데이터 기반 모델에 의존하지만 보다 특화된 결과물을 제공하기 위해 자체적으로 구축한 데이터 기반의 서비스를 제공하는 방식이다. -01_“생성형 AI 서비스의 구조” 중에서 P2P 서비스를 제공하는 소리바다5 사건에서는 유통되는 음원에 대해 해시값 대조 기술, 음악 지문(Audio Finger Printing) 비교, 그린파일 시스템 등을 이용한 필터링 기술을 도입했다. 해시값 대조 기술은 음원 파일의 해시 함수를 적용해 해시값들을 생성한 다음, 이를 서버에 데이터베이스(DB)로 축적하고 다운로드 요청 시 동일성을 판단하는 방식이다. 또한 같은 음원이라도 다양한 변형 파일이 존재하기 때문에 이를 보완하기 위해 음악 지문을 DB화하고, 사전 동의(opt-in) 방식으로 ‘그린파일’ 시스템을 도입해 권리자의 등록을 통해 필터링했다. 서울고등법원은 이 사건에서, 소리바다5가 방조 책임을 질 수 있는지를 판단하면서 “이용자의 침해를 미필적으로 인식하고도 방지하지 않았다면 방조 책임이 성립된다”라고 보았다. 특히 “적극적 필터링” 기술이 가능한 상황에서 “소극적 필터링”만으로 불법 파일 유통을 방관한 점을 지적했으며, 이에 따라 소리바다5는 「저작권법」 제102조 제2항에 따른 면책 대상이 될 수 없다고 판단했다. -03_“AI 서비스 제공자의 법적 지위” 중에서 서비스 제공자의 관여나 개입은 여러 가지 방식으로 이뤄질 수 있다. 검색 결과에 대해 임의적인 관여, 검색 알고리즘의 조작 등을 통해 가능하다. 인터넷상에 공개된 정보를 크롤링해, 결과로 내보이는 인터넷 검색은 사실의 적시다. 링크를 제공함으로써, 검색에 대한 자세한 내용은 해당 사이트에서 열람이 가능하다. 이러한 점에서 검색 엔진의 결과물은 사실의 나열이다. 그렇지만 AI 검색은 인터넷상에 공개된 데이터를 학습함으로써 사실과 아닌 것이 혼재된 상태로 저장된다. 학습된 결과물에 대한 저장이라는 점에서 사실의 나열로 보기 어렵다. 일종의 가공이 이뤄진다. 다만 RAG 방식에서 인터넷 정보를 크롤링해 DB화한 경우라면 일반적인 인터넷 검색과 정보의 내용에서 큰 차이는 없을 수도 있다. -06_“AI 검색과 서비스 제공자 책임” 중에서 「저작권법」은 OSP의 면책 요건으로 명백한 인식, 기술적·경제적 통제 가능성을 규정하고 있다. OSP와 달리, AI 서비스 제공자가 명백하게 이용자의 불법 행위를 인식할 가능성은 높지 않다. 프롬프트를 이용한 생성 행위는 이용자의 지배 영역에 있는 것이지 서비스 제공자의 지배 영역에 있는 것으로 보기 어렵기 때문이다. 그렇지만 경험상 생성형 AI가 가져오는 문제점들에 대해 인식하고 있다. 즉, 환각 현상, 딥페이크, 편향, 저작권 침해 등 다양한 이슈가 발생하고 있다는 점을 알고 있을 것이라는 점이다. 이러한 문제를 개선하기 위한 더욱 정제된 데이터의 활용, 필터링이나 워터마킹 등 기술적 방안들이 제시되고 있다. 서비스 제공자는 AI 서비스가 불완전하다는 점을 알고 있다고 볼 여지가 충분하다. 다만 일반적인 상황의 인식과는 별개로 자사의 서비스에서 제공하는 구체적인 문제점을 인식할 수 있다는 것은 별개로 보인다. 수많은 이용자가 생성하는 결과물에 대해 서비스 제공자가 문제 되는 내용을 일일이 모니터링한다는 것은 불가능한 수준으로 보이기 때문이다. -09_“OSP 자율 규제와 거버넌스” 중에서
교보문고: https://product.kyobobook.co.kr/detail/S000217297643 알라딘: https://www.aladin.co.kr/shop/wproduct.aspx?ItemId=369873412 예스24: https://www.yes24.com/product/goods/151286745