구글은 인공지능(AI)을 접목한 사진 처리 기술의 발달로 스마트폰 카메라로도 전문가용 SLR 카메라와 크게 차이 나지 않는 결과물을 얻을 수 있게 됐다고 28일 밝혔다.

구글에서 이미지 처리 부문을 이끄는 마크 르보이 디스팅귀시드 엔지니어는 이날 오전 서울 역삼동 구글코리아에서 열린 화상 기자간담회를 통해 자사의 최신 스마트폰 '픽셀2'에 적용된 기술을 소개하며 이같이 밝혔다.

그는 어두운 환경에서의 지글거리는 노이즈, 밝은 부분이 하얗게 날아가지 않는 다이내믹레인지, 초점이 맞은 부분과 그렇지 않은 부분이 구분되는 낮은 심도 등 분야에서 픽셀2로 찍은 사진이 SLR 카메라의 결과물에 거의 근접했다고 설명했다.

스마트폰 카메라가 훨씬 큰 SLR 카메라를 빠른 속도로 따라잡은 것에는 머신러닝(기계학습) 기술의 도움이 컸다.

가령 낮은 심도의 경우 100만장에 달하는 사진을 미리 학습시켜 인물의 윤곽을 자동으로 구분해주도록 구현했다.

인물은 또렷하게, 배경은 흐릿하게 AI가 처리해줌으로써 이전까지는 SLR 카메라를 써야 했던 결과물을 손쉽게 얻을 수 있게 된 것이다.

다른 스마트폰이 낮은 심도 구현을 위해 두 개의 카메라를 설치한 것과는 다른 방식이다.
구글 "스마트폰 카메라, AI 기술로 SLR 성능에 근접"
촬영 버튼을 누른 후 실제로 찍히기까지 시간은 150ms(1천분의 1초), 후처리 시간을 포함해도 촬영 후 4초 이내에 결과물을 받아볼 수 있도록 하는 등 실제 카메라를 쓰는 듯한 속도감에도 신경을 썼다.

구글은 앞으로는 머신러닝을 이용해 노출과 초점, 화이트밸런스 등 사진 촬영의 필수 요소도 더욱 정확하게 이뤄지도록 구현할 계획이다.

다만, 망원 사진은 현시점에선 스마트폰으로 찍을 수 없는 부분이라고 밝혔다.

르보이 엔지니어는 "스마트폰이 SLR을 완전히 따라잡을 수는 없을 것"이라며 "이미지 센서의 크기가 너무 차이 나기 때문"이라고 덧붙였다.

/연합뉴스