2011년 10월, 중국 광둥성에서 있던 일이다. 차에 치여 피흘리는 두 살배기 유아를 그대로 내버려둔 채 18명의 행인들이 피해간 사건이었다. 사건 발생 후 아이는 또 다른 자동차에 치었고 폐지를 줍던 아주머니에게 발견되어 병원으로 이송됐지만 결국 숨졌다.
이 영상이 다시 상기된 것은 2013년 3월 캘리포니아 주에서 개최된 일종의 재능 기부이자 지식 · 경험 공유 체계인 테드(TED) 강연에서 프린스턴대학교 생명윤리학 석좌교수 피터 싱어가 본론에 들어가기 전 프레젠테이션에 소개하면서다.
사람들의 무관심과 방치로 죽는 아이는 이 경우뿐만 아니라 2011년 한 해 동안만 해도 5세 이하 어린이 690만 명이 예방 가능한 빈곤 관련 질환으로 목숨을 잃었다며 이들의 죽음이 우리와 아무런 상관이 없는 일인가 반문했다.
그리고는 이런 질문을 던졌다. 4만달러로 1명을 도울 것인가? 2000명을 구할 것인가? 시각장애인을 위한 안내견 1마리의 훈련 비용은 4만 달러다. 반면, 개발도상국에서 주로 발생하는 안과질환인 트라코마 환자의 실명 위기를 치료하기 위한 비용은 20-100달러다. 당신이라면 1명을 도울 것인가, 2000명을 구할 것인가?
대부분 사람들은 어려움에 처한 사람의 안타까운 사연에 연민을 느끼고 이에 기부를 하게 된다. 허나 자신의 기부가 얼마나 많은 이들을 구하는가에는 관심이 적은채 본인이 기부를 한다는 사실 자체에 만족한다. 감성에 따르는 기부로는 실질적인 변화를 만드는 데 부족하다는 얘기다.
그러면서 남을 해치거나 죽이지 않는 기본적인 도덕을 지키는 것만으로는 부족하다며 국적이나 인종 상관없이 죽어가는 사람들을 살려내 사망자 수를 줄여야 한다고 역설했다.
이것이 그가 말하려는 소위 ‘효율적 이타주의자’다.
한마디로 ‘효율적 이타주의’는 감정적인 동기가 아닌 이성적으로 타인을 이롭게 하는 방법을 찾아 더 넓은 인류의 행복을 만들어내자는 운동이다. 그러려면 각자의 한도 내에서 선(善)을 최대화하는 것으로 보통 사람들도 자신의 삶을 영위하면서도 가능한 일이라고 강조한다.
조금은 방향이 다른 것같지만 AI이야기를 보자. 지난해 오픈AI가 챗GPT(생성형인공지능)을 내놨을 때 사람들은 놀라운 성능에 감탄하면서 두려움도 느꼈다. 이미 스티븐 호킹은 ‘AI가 인류 멸망을 초래할 수 있다’고 했으며, 일론 머스크는 ‘핵폭탄보다 위험할 수 있다’고 했고, 전 세계 과학자 1000여 명은 ‘이보다 더 강력한 AI 개발은 최소 6개월 동안 중단하라’고까지 했다.
얼마전OpenAI CEO샘 올트만의 갑작스런 해고와 복귀 해프닝이 벌어졌었다. 이를 두고 AI가 인류에게 실존적 위협이 될 수 있다는 파멸론자(doomer)들과 AI의 잠재력을 우선시하는 개발론자(boomer)간의 분열이라는가 하면, AI의 안정성과 신뢰성이냐 AI 비지니스의 수익성이냐의 충돌이라고도 한다.
헌데 이 모두의 배경엔 릫효율적 이타주의릮가 있다. 효율적 이타주의자에게 AI는 ‘안전하게 관리해야 할 대상’이다. 오픈AI의 수혜자는 투자자가 아닌 인류여야 하기 때문이다. 따라서 통제가 불가능할 정도로 똑똑해진 AI는 인류에게 재앙이 될 수 있으므로 미래에 이익이 되는 방향으로 AI를 이끌기 위해서는 섣부른 상업화 보다는 철저한 검증과 모니터링이 우선되어야한다는 것이다.
결국 이번 사건을 계기로 AI를 어느 선까지 개발하고, 어떻게 통제할 것인지를 놓고 논쟁이 벌어지게 된 두 세력간의 정면충돌은 인류사에 가히 기록 될만한 사건이랄수 있다. ‘AI 윤리전쟁’이 시작됐다.
2023-12-04 00:00:00