KAIST, AI 활용 고화질 영상 스트리밍 변환 기술 개발

고화질.jpg
유튜브와 넷플릭스 등 동영상 전성시대를 맞아 영상 콘텐츠 소비가 크게 늘고 있다.

인터넷으로 영상을 시청하는 서비스가 늘고 있지만, 회선 대역폭이 충분하지 않으면 화질이 낮거나 끊김이 생길 수밖에 없다.

국내 연구진이 인공지능(AI) 기술을 활용해 느린 인터넷 환경에서도 고화질의 동영상을 볼 수 있는 스트리밍 기술을 내놨다.

30일 한국과학기술원(KAIST)에 따르면 전기및전자공학부 신진우·한동수 교수 연구팀이 AI(딥러닝) 학습을 통해 고화질 영상 스트리밍이 가능한 변환 기술을 개발했다.

이 기술은 딥러닝 기술인 심층 콘볼루션 신경망(CNN) 기반 초해상화를 적응형 스트리밍(HTTP adaptive streaming) 비디오 전송기술과 접목한 방식이다. 유튜브 등 대부분 동영상 플랫폼은 적응형 스트리밍 방식을 사용한다. 이 방식은 사용자 인터넷 환경(대역폭)에 따라 영상 품질을 조절한다. 적응형 스트리밍은 영상 조각을 조각으로 나눠 보내기 때문에 회선 속도가 보장되지 않으면 고화질 동영상 시청이 사실상 불가능하다. 연구팀은 적응형 스트리밍에 초해상화를 접목해 인터넷 대역폭에 의존하는 기존 스트리밍의 한계를 극복했다.

이 기술은 동영상을 전송하는 서버에 딥러닝으로 학습한 다양한 방식의 신경망 조각이 저장되고, 사용자 컴퓨터 사양과 회선 속도를 고려해 최적화된 고화질 영상을 전송한다. 제일 큰 신경망 크기는 2MB(메가바이트) 정도다. 신경망 조각 일부만 내려받아도 초해상화 기술을 이용할 수 있도록 설계했다.

사용자 컴퓨터에서는 초해상화 기술을 사용해 비디오 플레이어 버퍼에 저장된 저화질 비디오를 고화질로 바꾼다. 이런 과정은 모두 실시간 이뤄지기 때문에 사용자들은 끊김 없이 고화질 비디오를 시청할 수 있게 된다. 연구팀이 개발한 시스템은 최대 26.9%의 적은 인터넷 대역폭으로도 체감 품질(QoE·기댓값에 맞춰 주관적으로 평가하는 허용도)을 제공할 수 있다.

같은 인터넷 대역폭이 주어진 경우에도 최신 적응형 스트리밍보다 체감 품질이 평균 40% 높다.

현재 일반 PC 환경에서 구현된 이 기술은 상용화에 근접한 상태이며, 향후 모바일 기기에서도 작동할 수 있도록 후속 연구가 한창이다. 조재근 기자 jack333@cctoday.co.kr
저작권자 © 충청투데이 무단전재 및 재배포 금지