미리보기
미리듣기
AI 시대의 법적 책임 문제를 다룬다. 자율주행, 알고리즘 편향, 계약 체결 등에서 발생할 수 있는 민사 책임을 국내외 법제와 함께 분석한다.
AI 사용자도 AI에 의한 책임의 위험에서 벗어나기 위해 몇 가지 조치를 취해야 한다. 우선 AI 시스템을 제공된 지침과 설명에 따라 올바르고 안전하게 사용해야 한다. AI의 한계와 오류 가능성을 인지하고, 중요한 의사 결정에 AI 결과만 맹신하지 않도록 주의해야 하는 것이다.
다음으로 AI를 예측 가능한 범위를 벗어나 오용하거나, 의도와 다르게 악용하지 않아야 한다. AI가 제공하는 정보나 결과를 사회적·법적 기준에 맞게 활용해야 하는 것이다.
또한 개인정보 등 민감한 데이터를 AI에 입력하거나 활용할 때 관련 법령을 준수해야 하며, 데이터 보호에 유의해야 한다.
그리고 AI 시스템의 오류, 편향, 부적절한 결과 등을 발견하면 즉시 피드백을 제공하고, 필요한 경우 문제를 제기해야 한다.
마지막으로 AI의 결정을 참고하되, 궁극적인 의사 결정 책임은 본인에게 있음을 인식하고, 중요한 결정에는 본인의 판단을 반드시 개입시켜야 한다.
-01_“AI의 행위에 대한 법적 책임” 중에서
AI가 자율적으로 계약을 체결한 경우, 이용자의 의도와 다를 수 있으므로 그 결과에 대한 책임을 누구에게 귀속시킬지 명확히 할 필요가 있다. 이를 위해 민법상 표현대리 법리의 유추 적용 등 법적 장치를 활용해 적정한 위험 배분이 이루어져야 한다.
AI를 이용하는 당사자와 그렇지 않은 당사자 간의 합리성 격차(비대칭성)가 발생할 수 있어, 상대방의 자기결정권 보호를 위한 법적 장치가 필요하다.
AI 계약에서 사적 자치의 원칙이 제대로 작동하려면, 공정하고 신뢰할 수 있는 AI 시스템 구축, 알고리즘 감사, 투명한 의사 결정 과정 등이 필수적이다.
-03_“AI에 의한 계약 성립” 중에서
정리하면 의료 AI는 의료 서비스의 혁신을 이끌 수 있는 강력한 도구이지만, 정확성, 편견, 개인정보 보호, 규제, 윤리, 사회적 수용성 등 다양한 문제점을 안고 있다. 이러한 문제점들을 해결하기 위해서는 기술적 발전뿐만 아니라 법적, 윤리적, 사회적 프레임워크의 구축이 필요하며, 모든 이해관계자(의료 제공자, 기술 개발자, 규제 기관, 환자)의 협력이 중요하다. 특히, AI가 의료 서비스에서 안전하고 공정하게 사용되도록 하기 위해서는 투명성, 책임성, 신뢰성을 강화하는 것이 필수적이다.
-06_“AI에 의한 의료 행위와 손해” 중에서
미국은 2018년 테슬라(Tesla) 자율주행차 사고로 제조업자 책임의 소송이 제기되어 AI 알고리즘 결함이 주요 쟁점으로 진행 중인데 아직 별도 법 개정은 없고, 기존 「제조물책임법」을 AI 관련 판례에 따라 유연하게 해석하는 방식을 취하고 있다.
한국도 2026년 1월 22일 시행되는 「AI 기본법」에서 AI 시스템의 안전성과 투명성을 강화하며, 「제조물책임법」과 연계한다.
의료, 에너지 등에 사용되는 고영향 AI는 위험 관리 계획, 영향 평가, 인간 감독의 의무화를 규정하고 생성형 AI에서는 가령 딥페이크 워터마킹과 같은 콘텐츠 라벨링을 요구하며 비준수 시 최대 3천만 원의 벌칙 조항을 두고 있다. 다만 AI 결함의 책임 소재(개발자 vs. 사용자)와 소프트웨어의 제조물 여부에 대한 명확한 기준이 부족하다는 한계가 있다.
-09_“AI에 대한 제조물책임법의 한계와 민법의 대응” 중에서