미리보기
미리듣기
AI가 일상이 된 시대에 초등 도덕 교육이 어떤 역할을 해야 하는지를 다룬다. AI 윤리와 리터러시를 중심으로 편향, 책임, 설명 가능성 등 핵심 쟁점을 풀어내며, 교육과정에 기반한 실제 수업 사례를 제시한다. AI 시대 시민 교육의 출발점을 제안한다. AI문고.
AI 윤리 교육에 대한 시대적 요구에 부응하여, 2022 초등 도덕과 교육과정에는 AI 관련 내용을 명시함으로써 그 중요성을 강조하고 있다. 구체적으로는 5∼6학년군의 ‘타인과의 관계’ 영역에서 AI 관련 내용을 찾아볼 수 있는데, 이때 ‘타인과의 관계’ 영역은 가까운 이웃부터 먼 낯선 이들까지, 다양한 인간관계에서 발생하는 도덕적 문제들을 다루는 영역이다. 일상의 친밀한 관계뿐 아니라 비일상적 맥락에서 마주치는 타자 역시 학습의 대상이 된다. (…) AI와 관련된 내용이 ‘타인과의 관계’ 영역에서 등장하는 이유는 인공지능이 인간과 상호작용할 수 있는 기술이며, 주로 인간과의 관계에서 윤리적 문제들이 발생하기 때문이다.
-01_“AI 윤리와 초등 도덕 교육의 변화” 중에서
행위자(agent)는 행위의 주체를 의미하며, 전통적인 관점에서는 인간만을 행위자로 간주해 왔다. 그러나 최근에는 AI의 발달로 인해 행위자의 범위가 확장되고 있으며, 특히 인공 행위자(Artificial Agent, AA)라는 개념의 등장은 도덕적 상황에 관여할 수 있는 주체의 범위를 넓히고 있다. AA에 관한 중요한 쟁점 중 하나는 AA와 같은 인공적 행위자가 도덕적 행위자로 인정될 수 있는지에 대한 문제다.
-03_“인공적 도덕 행위자(AMA)로서의 AI” 중에서
2016년 AI 바둑 프로그램 ‘알파고(AlphaGo)’는 인간이라면 쉽게 상상할 수 없는 수를 두며 세계 최정상 기사들을 압도하였다. 당시 알파고가 보여 준 전략적 수순은 인간의 직관과 완전히 다른 방식으로 전개되어 “기계가 창의성을 가질 수 있는가”와 같은 논쟁을 불러일으키기도 했다. 그러나 더욱 주목할 점은 그 놀라운 수들을 만들어 낸 알고리즘의 내부 작동 원리를 개발자들조차 명확히 설명하지 못했다는 사실이다. 알파고는 방대한 데이터를 학습하고 스스로 대국을 반복하면서 확률적으로 최적의 선택을 찾았지만, 그 판단이 어떠한 연산과 기준을 거쳐 도출된 것인지는 인간이 완전히 파악할 수 없다. 이는 인공지능의 판단이 인간의 통제와 이해를 벗어난 영역에서 이루어질 수 있음을 보여 주는 사례로, AI 기술이 성능의 향상만큼이나 설명 가능성과 투명성을 갖추어야 하는 이유를 보여 준다.
-06_“투명한 AI” 중에서
인공물을 도덕적 행위의 대상으로 연장하는 것은 다양한 문제를 야기할 수 있다. 예컨대 ‘AI가 파괴적이거나 비도덕적인 행동을 했을 때 책임의 주체는 누가 되어야 하는가?’, ‘AI에게 적용될 수 있는 보편적인 원리, 규칙 등은 어떻게 제정할 것인가?’ 등의 새로운 문제들이 발생할 수 있기 때문이다. 또한 AI의 결정은 단일한 주체가 아닌, 여러 기술 요소와 설계자의 가치 판단이 복합적으로 얽혀 있기 때문에, 도덕적 판단 능력을 갖춘 AI를 구현하려면 공학적 설계뿐 아니라 윤리적·법적 관점까지 함께 고려되어야 한다. 이를 위해서는 AI의 설계 가능성과 사회적 영향, 그리고 그 한계에 대한 전문가 간의 지속적인 논의와 협의가 필요하다.
-09_“초등학생이 알아야 할 AI 윤리 원칙” 중에서
