미리보기
미리듣기
AI가 탑재된 로봇이 실세계에서 자율적으로 움직이는 시대, 책임과 권한은 누구에게 귀속되는가? 《로봇의 법인격, 권리·의무, 제조물 책임, 로봇세, 킬러 로봇 규제 등 핵심 법적 쟁점을 10가지 주제로 정리했다. 기술을 넘어 로봇을 새로운 인류로 의제할 수 있는지 묻고, 인간과 로봇이 공존할 미래의 규범을 제시한다.
로봇의 개념은 확장 과정에 있다. 공장이 거대한 로봇이 되는 스마트팩토리가 되거나 가정에서 IoT를 활용함으로써 집 자체가 홈로봇(home robot)이 된다. 또한 브레인리스 로봇을 포함해 네트워크에 연결된 모든 것이 로봇이라는 의미로 이해된다. 더 나아가 소프트웨어 로봇이나 소프트웨어적으로 활용되는 경우도 포함한다면, 로봇의 범위는 더욱 확대될 것이다. 이와 같이, 로봇의 확장과 더불어 로봇에 대한 규범화의 필요성은 더욱 커지고 있다. EU는 의회 차원에서 로봇의 인격에 대한 논의를 시작했다. 정책적으로 지능형로봇법을 넘어서도록 로봇의 범위를 넓게 정하거나 또는 로봇기본법을 제정하는 방안을 고려할 수 있다. 다만 로봇의 확장이 자율주행차, 드론 등 별개의 객체를 집합함으로써 법체계 내지 법적 규율의 정합성이 떨어질 수도 있다는 점도 고려할 필요가 있다.
-01_“로봇” 중에서
결론적으로 법률이 사람이나 법인 외의 권리 능력을 인정하지 않는 이상 인공지능이 사람의 능력을 넘어서거나 사람의 형상을 가진다고 하더라도 권리와 의무의 주체로 보기 어렵다. 물론 특이점을 넘어서는 순간 강한 인공지능은 사람의 관여 없이 스스로 창작 활동을 하거나 발명하게 될 것이다. 현재로서는 사람이 관여해서 이루어지는 것이기 때문에 온전하게 인공지능이 권리를 갖는다고 보기 어렵다. 사람의 관여가 어느 정도인지에 따라 사안별로 판단되어야 한다. 다만 강한 인공지능이 주체적으로 판단하거나 행위를 하게 되면 인공지능에게 책임을 물을 수 있는 법적인 근거의 마련은 필요하다. 그러할 경우, 책임과 의무의 구체적인 사항에 대해서도 고민할 필요가 있다.
-03_“로봇의 권리와 의무” 중에서
로봇이 윤리적이어야 한다는 명제에 찬성하더라도, 윤리를 강제할 수 있는 것인지 의문이다. 이러한 논란은 로봇이 윤리를 이해할 수 있는 것인지, 또는 로봇에게 윤리를 가르치는 것이 가능한지 등 다양한 윤리 외적인 논의와 결부된다. 즉, “윤리적인 규칙이나 행동을 학습할 수 있는 시스템을 가지고 있더라도 로봇이 자율적인 도덕적 행위자의 자격을 가진다고 볼 수 없으며, 또한 이런 학습 방법의 설계자가 그것의 결과에 대해서도 책임져야 한다는 것도 명확하지 않다”는 주장은 이를 뒷받침한다.
-06_“로봇 윤리” 중에서
이처럼 자율 무기의 큰 한계는 국가 안보라는 명목으로 개발되고 운용되는데 외부에서 그러한 사실을 확인할 수 없다는 점이다. 이러한 주장에 대해 인공지능이 관여함으로써 인간보다 합리적인 의사 결정을 내릴 수 있다는 반론도 가능하다. 즉, 자율 무기는 인간의 관여를 줄일 수 있다는 점에서 전쟁을 수행하는 군인들의 생명을 보호할 수 있다는 주장이다. 그렇지만 자율 무기가 인간을 대신해 전쟁을 수행함에 따라 전쟁의 발생 빈도가 높아질 수 있다는 점을 지적하지 않을 수 없다. 이러한 점에서 본다면 자율 무기는 전쟁을 수행하는 당사자로서 군인의 생명을 보호할 수 있으나 민간인 등 비전투 요원의 생명이나 재산은 무방비로 노출될 확률이 커진다는 점에서 전쟁 억제력이 더욱 약해질 수 있다.
-09_“자율 무기와 인간 통제” 중에서
