미리보기
AI와 로봇 기술의 발전이 인간의 사고와 사회 구조에 미치는 영향을 다룬다. 특히, 로봇 경찰의 등장과 그로 인한 윤리적, 법적 문제를 논의하며, AI 알고리즘의 편향성과 불투명성 문제를 지적한다. 기술과 윤리의 균형을 맞추고, 인간과 로봇의 공존을 위한 책임 있는 AI 설계를 강조한다.
기술은 본질적으로 선도 악도 아니지만, 사용하는 방식에 따라 그 성격이 결정된다.
로봇이 인간 사회에 깊숙이 들어온 오늘날, 로봇의 역할과 한계를 재정의할 필요가 있다. 로봇 경찰과 같은 기술적 구현은 치안과 정의의 미래를 어떻게 바꿀 것인지 질문을 던진다. 로봇 경찰은 효율과 공정을 겸비한 이상적 존재일까, 아니면 통제의 수단이 될 위험을 품고 있을까? 로봇 경찰의 개념과 사례를 통해 기술이 정의, 윤리, 인간성을 어디로 이끌어 갈지 탐구한다. AI와 로봇공학이 빚어낼 새로운 질서 속에서, 우리는 어떤 선택을 해야 할까?
-01_“로봇과 로봇 경찰” 중에서
유엔은 그동안 자율 규제로만 거대 플랫폼 기업 및 로봇 산업에 적용되던 것을 직접적으로 포괄할 수 있는 인공지능 법(AI Act, AIA)을 만들었다. AI 법은 AI 시스템의 위험(risk)을 평가하는 프레임워크를 제공하고 AI 시스템이 해당되는 위험 범주에 따라 의무를 정의한다. 일반적으로 그동안은 자율규제와 심의에 의존했다면, AIA는 연구 육성과 혁신을 허용하는 소위 샌드박스를 제공하거나, AI 기술이 책임감 있고 투명하게 사용되도록 보장하면서 사회적 악영향을 해결하는 것의 중요성을 강조하며, 윤리적 AI 연구에 대한 구조화된 환경 제공이 절실히 필요한 시점임을 입증한다. 위험 평가 및 관련 의무에 대한 규정이나 정의가 쉽지는 않겠지만, 혁신을 방해하지 않고 윤리적 고려 사항을 AI 시스템에 통합하는 문제와 씨름하면서 복잡한 규정 준수 환경을 탐색해야 한다. 반면 엄격한 규정이 잠재적으로 AI 개발 및 배포 속도를 방해할 수 있다는 점에서 이 법은 양날의 칼이다. AIA는 디지털 시대에서 사용자의 권리와 안전을 보장하는 데 유익하고, AI가 생성한 허위 정보, 딥페이크 및 기타 형태의 디지털 조작과 관련된 위험으로부터 사용자를 보호할 것을 약속한다. 투명성, 책임 및 신뢰성에 대한 명확한 기준을 설정함으로써, 사용자가 AI 기술에 대한 신뢰를 촉진하고 기술을 보호하면서 AI 발전으로부터 이익을 얻을 수 있도록 하는 것을 목표로 한다.
-03_“로봇의 법적 지위와 법 집행” 중에서
도덕적으로 올바르고 사회적으로 책임감 있는 방식으로 개발되고 사용되는 AI를 책임 있는 AI(Responsible AI, RAI)라고 한다. 책임 있는 AI는 AI 시스템을 안전하고 신뢰할 수 있으며 윤리적인 방식으로 개발, 평가 및 배포하는 접근 방식이다. AI 시스템은 이러한 시스템을 개발하고 배포하는 사용자에 의한 다양한 의사 결정의 산물이다. 책임 있는 AI는 사전에 시스템 용도에서 사용자가 AI 시스템과 상호 작용하는 방법에 이르기까지 이러한 결정을 더 유익하고 공평한 결과로 안내하는 데 도움이 될 수 있다. 즉, 사람과 목표를 시스템 설계 결정의 중심에 두고 공정성, 신뢰성 및 투명성과 같은 지속적인 가치를 존중하는 것을 의미한다(learn.microsoft.com, 2024). 블랙박스 AI와 기계 편향으로 인해 발생할 수 있는 부정적인 재정적·평판적·윤리적 위험을 줄이기 위해, 책임 있는 AI의 지침 원칙과 모범 사례는 소비자와 생산자 모두에게 도움이 되도록 고안되었다.
-08_“책임 있는 AI와 포용성” 중에서
로봇 경찰의 윤리적 사용에 대한 기술적·행위적 중장기적 로드맵의 필요성이 절실하다. 로봇 기술의 발전은 기존의 법과 제도, 규범 등에 상당한 혼란을 초래하고 있다. 개발자, 생산자, 사용자 등의 참여적 행위 규제와 블랙박스, 편향, 할루시네이션 등을 방지할 기술적인 규제까지 망라한 새로운 윤리 표준(standards) 및 규정(regulation)이 상호적이고 협업적으로 작동할 수 있어야 한다. 이는 제도적 표준을 마련할 때 로봇이 가지는 공학적 설계에 윤리성을 부여한다는 것은 적합한 철학적 문제의 윤리 공식화와 지능형 자율 시스템에서 도덕적 추론을 구현해야 한다는 중대한 두 가지 과제를 포괄해야 한다는 것이다(Fisher et al., 2016). 따라서 설계자에게 제품이나 서비스에서 발생하는 윤리적 해악의 가능성을 줄이는 방법에 대한 지침을 제공해야 한다.
-09_“로봇 경찰의 윤리적 프레임워크” 중에서
정가 12000원