LG벨벳의 AI 사운드를 개발한 이건섭 LG전자 MC연구소 책임연구원(왼쪽부터), 김준엽 책임연구원, 이준일 CTO부문 책임연구원. LG전자 제공
LG벨벳의 AI 사운드를 개발한 이건섭 LG전자 MC연구소 책임연구원(왼쪽부터), 김준엽 책임연구원, 이준일 CTO부문 책임연구원. LG전자 제공
“인공지능(AI) 사운드는 영상으로 소통하는 시대에 딱 맞는 기능입니다.”

LG전자의 상반기 전략 스마트폰 ‘LG벨벳’에 처음 적용된 AI 사운드 기술에 대해 이건섭 MC연구소 책임연구원은 “영상을 소비하는 수단이 TV와 PC에서 모바일로 이동하고 있다”며 이같이 말했다. AI 사운드는 딥러닝(심화학습)을 통해 영상에 적합한 음향을 자동으로 골라주는 기술이다. LG벨벳의 음향기술을 개발한 이건섭 책임과 김준엽 MC연구소 책임연구원, 이준일 CTO부문 태스크리더(책임연구원)를 만나 기술 개발에 얽힌 이야기를 들었다.

LG벨벳에서 AI 사운드를 켜면 영상의 장르에 맞춰 음향이 자동 조절된다. 영화를 감상할 때는 좌우, 앞뒤를 울리는 풍부한 음향이 나오고 토크쇼를 볼 때는 음성을 또렷하게 들려주는 식이다. 김 책임은 이 기술을 “귀가 맛있어 하는 소리를 찾아내는 것”이라고 정의했다. 이를 구현하기 위해 AI에 1700만 개의 데이터를 학습시켰다고 했다.

이 기술은 크게 목소리, 음악, 시네마 세 요소로 영상의 음향을 파악한다. 이건섭 책임은 “영상마다 세 요소의 비율을 실시간 분석해 자동으로 음향을 전환한다”고 설명했다. 영상이 대화 장면에서 연주 장면으로 바뀌면 장르도 실시간 자동으로 바뀌는 식이다.

기술을 개발한 계기도 한 프로그램에서 장르가 바뀌는 데서 착안했다. 이준일 책임은 “2011년 ‘나는 가수다’라는 프로그램에서 노래 경연이 시작되면 ‘음향 모드를 음악 모드로 바꾸라’는 자막이 떴다”며 “음향 모드를 자동 변환하는 기능을 내놓으면 어떨까 하는 아이디어에서 AI 사운드가 나왔다”고 했다.

AI 사운드는 LG전자의 TV에 먼저 들어간 기능이다. 주로 올레드(OLED) TV와 시그니처 라인 등 프리미엄 제품에만 적용했다. 이 기술을 스마트폰 신제품까지 들고 온 것은 그만큼 모바일에서 영상의 중요성이 커졌기 때문이다. 이건섭 책임은 “영상이 강조되면서 스마트폰에 AI 스피커, 자율감각쾌락반응(ASMR) 등 음향 기능을 강화했다”고 말했다.

TV에 적용한 기술을 스마트폰에 옮겨오는 과정에서 어려움도 있었다. 구조와 사용 환경이 전혀 다르기 때문이다. 이준일 책임은 “TV에 비해 스마트폰은 스피커 크기가 작은 데다 외부에서 이동하며 많이 사용한다”며 “이런 부분을 고려한 설계가 필요했다”고 했다. 무선 이어폰이 대세가 되면서 사람의 머리 구조를 고려한 음향 설계도 이뤄졌다고 덧붙였다.

LG전자는 향후 내놓는 스마트폰 신제품에도 AI 사운드 기능을 넣을 예정이다. 김 책임은 “스마트폰이 가진 음향의 한계를 극복하기 위해 음향 기술을 개선해 나갈 것”이라고 말했다.

홍윤정 기자 yjhong@hankyung.com