미리보기
미리듣기
도덕성은 타고나는가, 길러지는가? 이 책은 AI를 통해 인간의 도덕적 판단과 이타성을 향상시킬 수 있는 가능성을 탐색한다. 감시가 아닌 설득의 기술로, 윤리와 기술의 접점을 사유한다. 인공지능총서. aiseries.oopy.io에서 필요한 인공지능 지식을 찾을 수 있다.
오늘날 AI가 많은 기술적 한계에 직면해 있는 것도 사실이다. 그런데도 우리가 기계 윤리를 천착하는 까닭은 AI의 ‘소프트웨어’에 몇 가지 윤리적 지침을 지정하면, AI를 새로운 수행에 활용할 수 있음이 확인되었기 때문이다. 그것도 다름 아닌 AI를 인간의 도덕성 향상에 이용할 수 있다는 점이다. 예를 들어 내가 ‘공정 경제’를 선호하고, 그래서 (에티오피아의) 어린아이와 여성의 노동력을 착취하여 수확된 다국적 기업의 커피를 마시지 않겠다고 스스로 다짐한다고 치자. 그러나 실제로 상점에서 커피 원두를 사거나 커피점에서 내가 커피를 주문할 때, 이를 확인하는 일은 좀처럼 쉽지 않다. 물론 바코드로 원산지와 생산 이력을 확인하면 가능한 일일 것이지만, 이마저도 귀찮고 성가실 때가 많다. 이때 소프트웨어가 일일이 알려 준다면, 이로써 나는 공정 경제를 성공적으로 실천할 수 있지 않을까?
-01_“도덕적 행위자로서 AI의 한계” 중에서
그러나 가톨릭 신자가 가톨릭의 윤리 체계 내에서는 조화를 이루더라도, 가톨릭에 반대하는 사람들 또는 비가톨릭 신자와 반성적 평형을 이루기는 말처럼 쉽지 않다. 이러한 갈등 상황의 해소에는 다시금 로스(W. D. Ross)의 ‘조건부 의무’가 대안이 될 수 있을 것이다. 조건부 의무란 여러 의무 중에서 우선순위에 따라 의무가 결정되는 것을 말한다. 그 기준으로 로스는 ① 선을 최대로 산출하는 것, ② 신중하고 분명하게 선택하는 것, ③ 다수의 의식 있는 사람이 선택한 것을 제시한다. 이러한 기준을 충족하는 조건부 의무에는 자신의 과거 행위로 인해 생기는 ‘신의(Fidelity)’와 ‘보상(Reparation)’의 의무, 타인의 과거 행위로 생기는 ‘보은(Gratitude)’의 의무, 가능한 최대 선을 행해야 하는 ‘선행(Beneficence)’의 의무, 타인에게 위해를 가하지 말아야 하는 ‘악행 금지(Nonmaleficence)’의 의무, 그리고 선의 극대화와 함께 공적에 따라 선을 균등하게 분배해야 하는 ‘정의(Justice)’의 의무, 자신의 지성과 덕행을 닦아야 하는 ‘자기 개선(Self-improvement)’의 의무가 있다.
-03_“도덕적 향상을 위한 AI 활용법” 중에서
여기서 한 걸음 더 나아가 로봇에 의해 너지가 가능하려면, 로봇이 상호작용하는 인간에게서 바람직한 특성이나 행동을 끌어낼 수 있어야 할 것이다. 그것은 그다지 어려운 문제가 아닐 것이다. 이미 돌봄 로봇이나 동반자 로봇은 인간의 언어나 공간적 접근, 몸짓이나 접촉 등으로 인간 행위자와 소통하고, 심지어 긍정과 부정의 행동까지 할 수 있기 때문이다. 이러한 사실은 로봇에 의한 너지의 가능성을 높여 준다. 하지만 진정한 로봇 너지가 일어나려면, 기계인 로봇과 인간 행위자 간에 신뢰가 구축되어야 할 것이다. 브룩과 아킨이 그 가능성을 조사했다. 이에 따르면 로봇의 행동이 인간 행위자의 신뢰를 강화하는 것으로 나타났다.
-06_“로봇 너지” 중에서
그러나 우리의 도덕적 판단은 순수 논리적이고 이론적으로만 일어나는 것이 아니다. 따라서 AI는 인간 행위자의 판단을 도덕적으로 그럴듯해 보이도록 평가해야 한다. 이 점에서 AI는 규범적 내용을 지향해야 할 것이다. 하지만 이 규범적 내용은 아마도 규범 윤리학의 역사에서 도출된 지식일 것이다. 그런데 규범의 역사적 내용은 시대에 따라 그 가치가 다를 수밖에 없다. 그래서 AI는 어느 한 시대에 편향됨 없이 ‘중립적으로’ 규범 내용을 제시할 수 있어야 한다.
-09_“세부 논의의 딜레마” 중에서