윤승 ETRI 음성지능연구그룹 선임연구원

지난달 미국의 인공지능 비영리 연구재단 오픈 에이아이(Open AI)에서는 자동번역, 질의응답, 대화 시스템 등에 다양하게 응용될 수 있는 ‘GPT-2’라는 언어 모델(Language Model)에 관한 연구를 공개했다. 특히 GPT-2는 임의의 텍스트를 입력받아, 이를 기반으로 사실적인 그러나 가공된 이야기를 작성하는데 놀라운 능력을 발휘했다.

‘과학자들이 안데스 산맥의 미등정 계곡에서 한 무리의 유니콘을 발견했는데 무엇보다 충격적이었던 것은 이들이 완벽한 영어를 구사한다는 것 이었다’는 문장을 입력하자 GPT-2는 진화 생물학자 조지 페레즈 박사라는 가공의 인물을 내세워 계곡에 대한 설명과 유니콘을 만나게 된 장면에 대한 자세한 소개했다. 그리고 유니콘들의 언어와 그 탄생 기원에 이르기까지 상세한 이야기를 줄줄 쏟아냈다. 이러한 GPT-2의 능력에 놀란 Open AI에서는 가짜 뉴스 생성과 같은 악의적인 기술 응용을 우려해 본래의 능력보다 훨씬 축소된 모델만을 공개하기로 결정했다.

작년 5월 사람처럼 실제 전화를 걸어 식당과 미용실을 예약하는 구글의 듀플렉스 기술이 시연됐을 때도 사람들이 그 기술의 자연성에 놀람과 동시에 윤리적인 면에서 큰 우려를 표명한 바 있다. 오바마 미국 전 대통령이 트럼프 대통령을 비난하는 가짜 영상(deep fake) 기술이 공개됐을 때도 마찬가지다.

이러한 윤리적 문제 외에도 많은 이들이 공통으로 지적하는 문제가 인공지능으로 인한 일자리 감소다. LG경제연구원에서는 2018년 5월 보고서에서 우리나라 노동시장 일자리의 43%가 인공지능으로 대체될 것으로 전망한 바 있고 미국 브루킹스 연구소는 지난 1월 인공지능이 미국 내 일자리의 4분의 1을 대체할 것으로 예상하기도 했다.

그러나 이렇게 인공지능의 역기능과 오남용 우려가 있다고 해서 인공지능 기술의 발전과 확산을 막을 수 있을까? 필자는 그렇지 않다고 본다. 과거 산업혁명 당시 기계가 인간의 일자리를 대체한다는 우려 때문에 대규모 기계 파괴운동인 러다이트 운동이 영국에서 일어났을 때도 기계화 흐름의 대세는 바꿀 수 없었다.

기술은 기본적으로 가치 중립적이다. 원자력 기술이 과거 원자폭탄 투하에 대한 공포, 체르노빌 원전 사고 및 후쿠시마 원전 사고로 인한 방사선 노출의 문제 등에도 불구하고 전기 생산에 대한 공헌으로 인한 가치를 인정받는 것처럼 말이다.

원자력 기술의 경우 1950년대 이후 끊임없이 평화적 이용에 대한 논의를 국제적으로 지속해 왔듯이 이제 인공지능 기술에 있어서도 인공지능 기술의 윤리적 문제와 어떻게 인간의 존엄성을 드높이면서 인공지능을 인류의 동반자로 삼을지에 대한 논의가 본격적으로 필요하다.

일본의 경우 지난해 ‘인공지능 활용에 관한 7가지 원칙’을 채택한데 이어 오는 6월 오사카에서 열리는 G20 정상회의에서 참가국들에게 동참을 요청할 계획이라고 한다.

우리나라에서도 카카오에서 인공지능윤리헌장을 발표한 바 있고 과학기술정보통신부에서 ‘지능정보사회 윤리가이드라인’을 마련하는 등 이러한 논의가 점점 가속화되고 있다.

지금 시점이 바로 인공지능과 인간의 공존에 관한 사회적 논의가 심도 있게 이루어져야 할 시점이라 생각한다. 인공지능과 인류의 미래가 디스토피아일지 유토피아일지는 현재의 우리에게 달려있기 때문이다.
저작권자 © 충청투데이 무단전재 및 재배포 금지