미리보기
미리듣기
AI는 정서와 윤리를 진짜로 이해할 수 있을까? 감성 컴퓨팅과 공감 알고리즘의 한계를 짚으며, 인간의 도덕성과 감정 체계를 AI가 재현할 수 있는지에 대한 철학적·신경과학적 질문을 제기한다.
리사 배럿(Lisa Feldman Barrett)의 정서 구성주의 이론(Theory of Constructed Emotion)은 전통적인 정서 이론과는 근본적으로 다른 관점을 제안한다. 배럿은 정서가 미리 정해진 생물학적 범주가 아니라, 뇌가 과거 경험, 문화적 개념, 현재의 감각 정보 등을 종합하여 능동적으로 구성해 내는 현상이라고 역설한다. 뇌는 끊임없이 변화하는 신체의 내부 상태와 외부 세계의 감각 입력을 예측하고 해석하여 상황에 맞는 정서적 의미를 부여한다. 이러한 과정에서 언어와 사회적 학습은 개인이 정서 개념을 형성하고 자신의 감각 경험을 특정한 정서로 분류하는 데 중요한 역할을 한다. 그의 이론에 따르면, 뇌의 주요 기능 중 하나는 신체의 시스템을 조율하고 조절하는 것이며, 이는 예측 코딩 메커니즘을 통해 이루어진다. 뇌는 과거 경험을 바탕으로 현재 상황을 예측하고, 예측과 실제 감각 입력 간의 불일치 즉, 예측 오류를 최소화하는 방향으로 내부 모델을 업데이트한다.
-01_“인간 정서의 뇌 신경과학적 원리” 중에서
흄은 당시 주류였던 이성 중심 윤리학에 근본적인 도전을 제시했으며, 그의 주장은 이후 도덕 심리학을 포함한 다양한 분야에 큰 영향을 미쳤다. 최근 도덕 판단 과정에서 전통적인 이성 중심 접근 방식과 대비되는 정서의 역할이 강조되고 있다. 조슈아 그린(Joshua Greene)과 동료 연구자들은 도덕 판단에 대한 ‘이중 과정 이론(dual-process theory)’을 제안하고 이를 지지하는 연구 결과를 발표했다. 그린의 이중 과정 이론에 따르면, 의무론적 도덕 판단은 자동적이고 정서적인 반응에 의해 주로 유발되며, 공리주의적 도덕 판단은 통제된 인지 과정에 의해 주도된다. 그의 연구에 따르면, 특정 유형의 도덕적 딜레마 즉, 인격적 딜레마는 현저하고 자동적인 정서적 반응을 유발하는 경향이 있으며, 이러한 반응은 행위의 부적절함과 같은 특정 판단과 빠르게 연결된다.
-03_“도덕적 판단과 정서 및 감정” 중에서
그린과 그의 동료들은 일련의 신경영상 연구를 통해 잘 알려진 트롤리 딜레마(trolley dilemma)의 두 가지 버전에서 도덕 판단에 따른 뇌 활동과 반응 시간에 차이가 존재하는지를 조사하였다. 첫 번째 사례인 트롤리 딜레마 즉, 스위치 케이스(switch case)에서 대부분의 참가자들은 트롤리 전차가 다섯 명을 향해 달려가고 있을 때, 전차의 방향을 바꿔 다섯 명 대신 한 명을 희생하는 것이 도덕적으로 허용 가능한가에 대해 긍정적인 대답을 하였다. 두 번째 사례는 인도교 딜레마(footbridge dilemma)로 참가자들은 다리 위에서 한 사람을 밀어 전차의 경로에 떨어뜨려 다섯 명을 구하는 것이 도덕적으로 허용 가능한가를 판단하도록 요청받았다. 이에 대부분의 참가자들은 트롤리 딜레마와는 달리 부정적인 대답을 하였다. 왜 이런 차이가 발생할까? 그린과 그의 동료들은 이러한 도덕 판단의 차이는 뇌의 서로 다른 심리적, 신경과학적 처리 경로 때문이라고 가설을 세웠다.
-06_“공감하는 AI” 중에서
AI가 다양한 사회 영역에서 사실상 결정권자에 준하는 역할을 수행하게 되면서, 인공지능의 판단이 지니는 도덕적 정당성과 책임성은 중요한 공적 쟁점으로 부상하고 있다. 특히 생명, 안전, 권리에 직결되는 의료·교육·교통 분야에서는 ‘AI가 어떤 윤리 기준에 따라 의사 결정을 내려야 하는가’에 대한 명확한 원칙과 지침이 요구된다. 예를 들어, 의료 진단 알고리즘이 환자 데이터를 분석해 치료 방안을 제시할 경우, 해당 모델의 학습 데이터 구성과 함께 환자 존중, 형평성, 사생활 보호 중 어떤 윤리적 가치를 우선했는지에 대한 투명성과 공정성 확보가 필수다.
-09_“도덕적 AI를 위한 윤리적 기준과 사회적 책임” 중에서