정성훈 대전을지대학교병원 정신건강의학과 교수

“이틀간의 격렬한 토론 끝에 연합 감리 교회는 결국 새로운 분파의 형성으로 치닫게 될 역사적 분열에 합의했다. 5월에 열린 교회 연례 총회에 참석한 대다수의 대표자들은 성소수자가 목회자가 될 수 없도록 금지를 강화하고 동성 결혼을 주관하는 성직자를 징계할 수 있는 새로운 규칙을 작성하는데 찬성했다. 이러한 조치에 반대하는 사람들은 2020년까지 기독교 감리교 분파라고 부르는 별도의 교파를 구성할 것이라고 전했다.”

신문 지상 어딘가에서 충분히 읽어볼 수 있음직한 기사 내용이다. 만약 종교계에 몸담고 있는 누군가가 이 기사를 접한다면 상당한 충격을 받을지도 모른다. 사실 위 기사는 진짜가 아니다. 연구진이 관련된 제목을 던져주고 인공지능으로 하여금 스스로 작성하게 한 ‘가짜뉴스’다. 놀라운 것은 글의 흐름이 전혀 어색하지 않을 뿐 아니라, 설득력이 있어서 별 의심 없이 믿게 된다는 점이다.

‘GPT-3’라 불리는 이 인공지능은 최근 로켓 발사에 성공해 주가를 올린 일론 머스크가 설립한 ‘OpenAI’라는 연구기관에서 개발했으며, 마이크로소프트의 기술적, 재정적 지원을 받았다. 마이크로소프트는 OpenAI사에 수십억 달러를 지원했으며, 이 프로젝트를 가능케 하기 위해 전 세계에서 다섯 손가락 안에 드는 초고성능의 슈퍼컴퓨터를 따로 제작할 정도로 큰 관심을 보였다. 이 슈퍼컴퓨터가 모델을 단 한번 훈련시킬 때의 소요 비용은 전기료, 냉각비 등을 포함해 수백만 달러에 이른다고 한다.

일반인의 입장에서는 GPT-3가 일구어낸 성과가 그저 놀랍고 신기한 정도에 그칠지도 모른다. 그러나 위에서 소개한 가짜뉴스를 만들기 위해 이렇게 엄청난 투자를 했을까라고 생각해보면 고개가 갸우뚱해진다. 왜 이런 기술을 개발하는 것일까? 우리의 삶에 꼭 필요한 것일까? 우리는 왜 이런 기술에 현혹되며, 도입하기 위해 서두르는가?

과학기술의 발전은 절박한 필요성에 의해 이끌어져 온 경우도 많지만 그저 ‘가능할 것 같으니 한번 해보자’라는 호기심의 발로에 의해 시도된 적도 많다. 최근에 4차 산업혁명을 이끌고 있는 기술들은 이런 영향이 크다. 인터넷은 원래 핵전쟁이 났을 때 통신을 유지하기 위한 군사적 필요성에 의해 개발됐다. 그러나 이후 인터넷이 가져온 기술의 혁신은, 절실한 필요성보다는 가능성의 모색 속에서 얻어진 부산물에 가깝다. 예를 들어 운전이 얼마나 부담스럽고 위험한 일이길래, 수많은 기업들이 자율 주행차 개발에 뛰어들고 있는지는 잘 생각해봐야 할 문제이다. 그렇다면 혼자서 기사를 작성하는 GPT-3도 가능성의 탐색 차원에서 이해해볼 수 있을까? 기계가 인간의 마음을 어디까지 모사할 수 있을지 확인해보고 싶은 인간의 호기심을 만족시켜주는 것에 지나지 않는 것일까?

마이크로소프트는 지난 5월 자사가 운영하는 포털사이트인 MSN의 집필진 27명을 해고하고, 대신 GPT-3와 유사한 인공지능으로 대체했다. 앞으로 이 인공지능은 기사의 수집, 선택, 편집과 관련된 일을 자동화한다. 페이스북이나 트위터 등 소셜미디어 사이트에서는 가짜뉴스를 걸러내기 위해 인공지능을 이용한다. 에스토니아에서는 아예 판사를 대신해 인공지능이 판결을 내린다.

이러한 움직임들은 물론 비용을 아끼고 작업능률을 향상시킨다는 표면적인 목적이 있지만, 그 밑바닥에는 사람들이 인간보다 기계를 더 신뢰하게 됐다는 의식의 변화가 깔려있다. 아마 독자 분들도 오랜만에 찾아가보는 여행지에 갈 때 자신의 기억에 의지하기보다는 네비게이션에 맡기는 경우가 흔할 것이다. 기억이나 감보다는 기계를 더 신뢰하게 되는 심리는 이제 우리 생활 깊숙이 파고들었으며, 타인에 대한 폄하와 불신은 이런 경향을 더욱 가속화시킨다.

인간의 사고나 판단은 감정에 좌우될 수밖에 없다. 성격이나 개인적 철학, 인간관계 내에서의 입장 등에 영향을 받아 때로는 이해하기 힘든 결정이 내려지기도 한다. 그러나 논리와 이성에 의한 결정만이 옳다고 단언하기도 힘들다. 감정의 움직임은 논리로 설명되지 않는 상황에서 우리에게 길을 알려준다. 무의식에 축적된 경험과 직관은 이성적 판단만으로 출구가 보이지 않을 때 돌파구를 열어준다. 그러나 이제 사람들은 더 이상 상대방의 직관이나 감정을 믿을 수 없게 됐으며, 더더욱 자신의 직관과 감정조차 믿지 못하게 됐다. 그렇기에 타인을 믿기 보다는 차라리 이러한 군더더기 요소에 좌우되지 않는 인공지능을 더 신뢰하게 됐는지도 모른다.

현재까지 인공지능의 개발은 인간의 논리적 사고를 최대한 흉내 내는 방향으로 발전돼 왔으며, 이미 놀라운 수준에 이르렀다. 그러나 주목해야 할 점은 인공지능의 보급과 함께, 사람이 점점 기계를 닮아가데 된다는 점이다. 기계는 비논리나 예외를 받아들이지 않는다. 순간의 기분에 따른 즉흥적 일탈을 허락하지 않으며, 왠지 이래야만 될 것 같다는 무의식으로부터의 속삭임도 들으려 하지 않는다. 그리고 점점 기계를 닮아가게 되는 우리 역시 이러한 요소들을 삶에서 배제하고자 애쓰게 될 것이다.

GPT-3가 만들어내는 기사는, 아직 사람의 펜 끝에서 엮어진 문장의 우아함까지는 도달하지 못했다. 그러나 언젠가 학생의 작문을 평가해 점수를 매기는 인공지능에 의해 교육받은 후세대의 청년들이, 모두 GPT-3와 닮은 문장을 지어내게 되지 않을까 우려되기도 한다.

저작권자 © 충청투데이 무단전재 및 재배포 금지