임춘화 을지대학교병원 진단검사의학과 교수
[수요광장]


우리나라는 생명윤리에 대한 내용을 법으로 정하고 있는 유일한 나라다. 많은 사람들이 알고 있듯이 황우석 스캔들로 국제적인 망신을 당하고 연구가 갖추어야 할 윤리적 타당성이 반드시 지켜야할 법으로 만들어졌다. 전체 인구수보다 많은 개인정보가 노출돼 더 이상 보호될 수 있는 정보가 몇 개 안된다고 우스갯소리로 말하지만 개인정보의 보호를 위한 개인정보보호법에서는 개인의 동의가 없이 가능한 일이 거의 없다.

이렇듯이 윤리를 법으로 정하고, 동의 없는 개인정보의 사용을 거의 불가능하게 했기 때문에 다수의 데이터와 그 분석이 필수적인 4차 산업혁명 시대의 발전을 가로막고 있다는 아우성도 만만치 않다.

과연 그럴까? 선택한 알고리즘대로 행하는 인공지능이 나의 일상으로 헤집고 들어오는 걸 모든 사람들이 원하고 있을까? 불편한 것은 맞지만 불편하다고 옳지 않다고 말할 수는 없다.

인공지능이 사람의 자연어를 잘 이해하게 되면서 이제는 사람과의 대화가 훨씬 자연스러워졌다.

각종 광고에 등장하는 것처럼 일상에서 인공지능을 탑재한 챗봇이나 반려로봇을 쉽게 만나볼 수도 있다.

최근 로봇이 등장하는 드라마에서처럼 상대방의 상황을 고려한 고민과 배려 때문에 너무 많은 감정 소모를 하지 않고, 오로지 나만을 위로해 주는 상대로는 인공지능을 탑재한 맞춤 로봇이 최고일 수도 있다.

한 예능 프로그램에서 애플의 인공지능 비서인 시리에게 “사랑해” 라는 말을 듣는 미션이 있었다.

그 프로그램에 나온 모든 연예인들이 온갖 노력을 다했음에도 시리는 끝까지 “사랑해”라고 하지 않았다. ‘I love you, 愛してる를 번역해줘’ ‘시리야 사랑해’ ‘사랑한다고 말해줘’ 등등 온갖 감언이설(?)에도 시리는 “사랑해”라고 하지 않았다.

시리에게 “사랑해”를 들을 수 있는 방법은 정말 없을까? 방법은 ‘사랑해’라는 문자를 보내고 “문자를 읽어줘” 하는 것이었다. 시리는 알고리즘에 의해 학습한 결과대로 사람의 “사랑해”에는 쉽게 반응하지 않도록 되어 있었으나 “문자를 읽어줘”라는 명령에는 글자 그대로의 “사랑해”를 읽을 수밖에 없었던 것이다.

즉 폭탄을 폭발시키는 버튼을 누르라는 명령은 쉽게 듣지 않을 수 있지만 ‘버튼을 눌러라’라는 문자를 읽으면 그 목소리에 반응해 버튼이 눌려지게 돼 문자를 읽는 목소리와 버튼을 진짜 눌러야 하는 상황을 구별할 수 없다면 폭탄은 터질 수도 있는 것이다. 그만큼 상황은 같아보여도 다른 것이고, 어떤 알고리즘에 따라 움직이는지가 중요하다.

점점 약해지는 필자의 무릎을 생각하면 자율주행차가 하루라도 빨리 나왔으면 좋겠지만 이제는 우리 사회도 해묵은 윤리적 질문에 대한 고민을 다시 시작해야 할 때가 된 것 같다. 1967년 영국인 철학자 필리파 풋은 전차문제의 사고실험을 소개한바 있다. 멈출 수 없는 선로를 달려오는 전차 앞에 두 개의 선로가 있고, 한 선로에는 한 명이 다른 선로에는 다섯 명이 작업 중일 때 선로변환기를 쥐고 있는 당신은 어떤 선택을 할 것인가에 대한 질문이다.

다수를 살리는 일은 도덕적으로 항상 정당한 일일까? 사람을 수단으로 보는 것 자체가 옳지 못한 것일까?

이제 우리는 인공지능에 입력될 최선의 윤리적 알고리즘은 무엇인지 고민해야 할 수밖에 없다. 자율주행차의 불가항력적인 교통사고에서 피해를 입을 수밖에 없는 누군가를 선택하는 알고리즘은 과연 어떻게 해야 할까? 탑승자의 어린 아들 한 명과 전혀 알지 못하는 모르는 사람 열 명의 다수 중에 선택을 해야 한다면 어떻게 해야 할까? 과연 그 알고리즘은 누가 결정해야 할까? 인공지능 개발자일까? 탑승자일까? 정부일까?

무엇이 모범답안인지는 아무도 모르지만 굳이 윤리를 법으로 만들면서까지 우리가 지키고자 했던 생명에 대한 존중과 경외심을 바탕으로 이제부터라도 치열한 사회적 고민과 논의가 만들어져 가야할 것이다.
저작권자 © 충청투데이 무단전재 및 재배포 금지