사건 1: 2010년, 캐나다 출신 여성 운전자 엠마 쪼르노바지(Emma Czornobaj)가 길을 건너는 오리들을 지키기 위해 고속 도로에서 잠시 정차한 사이, 뒤에 따라오던 오토바이가 차량과 충돌해 타고 있던 부녀가 사망했다.
사건 2: 2014년, 이타카(Ithaca)에서 언덕을 내려오던 트럭의 브레이크가 갑자기 고장 났다. 트럭의 운전자는 공사장 혹은 카페 둘 중 하나와 충돌할 수밖에 없었고, 후자를 선택해 결국 바텐더 한 명이 사망했다.
세계적인 베스트셀러, “정의란 무엇인가(Justice: What’s the Right Thing to Do?)”에 등장하는 전차 문제(Trolley Problem)를 아는가? 한 사람과 다섯 사람 중 한 집단을 희생시킬 수밖에 없는 극단적인 상황을 제시하고, 이에 대한 선택을 묻는 전차 문제는 생명의 가치에 대한 도덕적인 기준을 질문한다.
현시대에 이 같은 선택의 딜레마는 단순히 개념적인 영역에만 머무르지 않는다. 무인자동차와 AI가 개발됨에 따라, 사고 발생 처리 과정에서 누군가를 희생시켜야만 한다면 누구를 희생시킬 것인가라는 문제와 직접 연관되기 때문이다. 인간 운전자와 달리 AI는 급박한 상황에도 철저한 계산을 통해 희생자를 ‘선택’하게 된다. 그렇다면 과연 AI는 어떤 도덕적인 기준을 바탕으로 희생자를 선택하도록 설계되어야 할까.
지난 24일, 선택의 딜레마에 대한 에드몬드 아와드(Edmond Awad)와 동료 연구자들의 더 모럴 머신 실험(The Moral Machine Experiment) 연구가 네이처지(Nature)에 소개되었다. 전차 문제의 개념을 차용한 이 실험은 2016년에 더 모럴 머신이라는 게임의 형태로 인터넷에 공유되었고, 총 233개국에서 200만 명이 넘는 사람들이 참여했다. 게임 속에서 참여자들은 무인 자동차가 되어 반드시 한 집단을 희생시켜야만 하는 상황 속에 놓여졌고, 이에 대한 답변들은 기록되어 연구에 반영되었다. 이 실험이 기존의 전차 문제와 차별화되는 부분은 희생되는 집단이 훨씬 다양하다는 것. 참여자들은 각 집단의 인원수뿐만 아니라 성별, 나이, 직업 등의 요인들을 고려해야 했다.
실험 결과, 본래 예상했던 것보다 흥미로운 결과들이 도출되었다. 전 세계적으로 동물보단 인간을, 노인보다는 아이를, 적은 인원보다는 많은 인원을 구해야 한다는 답변이 지배적이었지만, 이 역시 문화권에 따라 차이가 있었던 것. 서양 문화권에서는 아이들을 구해야 한다는 답변이 절대다수였지만, 아시아 국가에서는 두 답변 간의 차이가 상대적으로 적었다. 빈부 격차가 심한 국가일수록 사람들은 직장인을 살리기 위해 노숙자들을 희생시켰으며, 사회적 규율이 강하다고 생각되는 나라일수록 일반 보행자를 살리기 위해 무단횡단자들을 희생시켰다.
결국, 이 실험은 생명의 가치에 대한 절대적인 기준은 존재하지 않는다는 사실만을 또 한 번 확인시켜주는 계기가 되었다. 하지만 조금 더 나아가 이 실험은 우리에게 AI의 도덕성에 대해 깊이 고민해볼 것을 요구하며, 희생자를 선택하는 능력을 부여함으로써 AI에게 인간보다 높은 지위를 허락하는 것은 아닌가 생각해보게 한다. AI를 위한 연구가 진행될수록, 인간의 고민은 깊어져만 간다.