미리보기
미리듣기
AI 기술 발전에 따른 윤리적, 법적 문제를 다루며, 신뢰할 수 있는 AI 구현을 위한 규제의 필요성을 제시한다. 생성형 AI의 허위 정보, 저작권 침해, 개인정보 보호 등 다양한 이슈를 분석하고 한국을 포함한 주요국의 규제 동향을 소개하며 AI 기술과 규제의 올바른 방향을 제시한다.
한국도 2007년부터 ‘지능형 로봇개발 및 보급 촉진법’을 근거로 산업자원부와 로봇산업진흥원 주관으로 로봇윤리헌장을 제정했다. 2017년에는 과학기술정보통신부와 한국정보화진흥원이 주관이 되어 지능정보사회 윤리가이드라인 및 지능정보사회 윤리헌장을 제정한 바 있다. 전자는 인간의 존엄성 보호, 공공선의 추구, 인간의 행복 추구를 기본 가치로 하고 실천 원칙으로 투명성, 제어 가능성, 책무성, 안전성, 정보 보호를 들고 있다. 후자는 공공성, 책무성, 통제성, 투명성의 원칙을 제시하고 있다.
-01_“AI 윤리와 법” 중에서
다만, 기업 알고리즘은 대부분 영업 비밀에 해당한다. 따라서 이를 공개하는 것은 영업 비밀을 법적으로 보호함으로써 기업의 연구·개발 활동을 촉진하는 것을 목적으로 하는 영업비밀보호제도와 충돌한다. 또한 알고리즘은 수시로 변경되기 때문에 특정한 시점의 알고리즘을 공개하거나 검증하는 것의 실효성도 의문이다.
-06_“AI와 알고리즘 규제” 중에서
미국 스탠포드대학교 인간중심인공지능연구소도 생성 AI는 개인의 사법 접근성 문제, 법률 대리인의 업무 처리, 판사의 판결 등을 보조할 잠재력을 보유하고 있으며, 개인은 생성형 AI를 통해 필요한 법률 문서를 준비하고, 변호사는 법률 연구와 문서 작업, 판사는 판결의 정확성과 효율성을 개선할 수 있다고 보았다.
-09_“AI와 리걸테크” 중에서