디지털 컴퓨터 칩은 연산 소자와 기억 소자(메모리)가 분리돼 있다. 각각(기억, 연산)의 성능이 진화할수록 두 소자 간 속도 차이로 병목 현상이 생긴다. 반면 우리 뇌는 기억과 연산을 동시에 나란히 수행하는 아날로그 방식이다.

사람 두뇌 닮은 'AI칩' 장착…휴대폰을 슈퍼컴처럼 쓴다
사람의 뇌는 1000억 개의 뉴런(신경 다발)과 1000조 개의 시냅스로 이뤄져 있다. 인체 내 신경계 정보 전달은 뉴런과 뉴런 사이 시냅스에서 이뤄진다. 시냅스 내 칼슘이온 농도에 따라 신경전달 물질이 분비되면서 뉴런 간에 신호가 오간다. 이런 뇌 구조를 모방해 전기적 신호가 발생하도록 설계한 반도체를 인공지능(AI) 반도체라고 한다. 시스템반도체의 일종으로, NPU(뉴럴 프로세싱 유닛) 또는 뉴로모픽으로 불린다. 사진, 동영상 등 ‘비정형’ 데이터를 빠르게 처리할 수 있어 지능형 로봇, 자율주행차 등에 쓰인다.

과학기술정보통신부는 유회준 KAIST 전기및전자공학부 교수 연구팀이 심층 강화학습(DRL)을 높은 효율로 처리할 수 있는 AI 반도체 기술을 개발했다고 16일 발표했다.

AI를 학습시키는 가장 간단한 방식은 ‘지도학습(문제에 상응하는 답을 반복 주입시키는 것)’이다. 단점은 ‘지도를 받은’ 상황 판단만 가능하기 때문에 돌발 사태가 발생하면 대처가 불가능하다. 고속도로에 쓰러진 트럭 등 장애물을 자율주행차가 피하지 못하고 그대로 들이받는 사고 등이 대표적이다.

반면 DRL은 진화한 AI 학습 방식이다. AI가 스스로 판단을 내리고, 그 결과에 대해 인간이 준 피드백을 토대로 더 똑똑해진다. 정답이 주어지지 않은 상태에서 최적의 답을 찾아내기 위해 여러 인공신경망(ANN)을 동시에 가동한다.

우리 몸 안 시냅스는 외부 자극에 대응해 지속적으로 신경세포 신호 전달 세기(강도)를 바꾼다. 정형화돼 있지 않은 이런 시냅스의 특징을 ‘시냅스 가소성’이라고 한다. AI 반도체가 시냅스 가소성을 확보하기 위해선 DRL 능력을 반드시 갖춰야 한다. DRL이 이뤄지면 고속도로에 ‘본 적이 없는’ 장애물이 튀어나와도 이를 알아서 피하는 자율주행차를 만들 수 있다.

그동안 대부분 DRL은 전력 소모가 큰 CPU(중앙처리장치)와 GPU(그래픽처리장치) 위에서 소프트웨어로 구현해 왔다. 바둑기사 이세돌과 대국으로 유명한 구글 딥마인드의 알파고는 176개 GPU, 1202개 CPU로 이뤄진 DRL 기계였다. 이런 한계로 DRL은 노트북, 스마트폰 등 작은 정보기술(IT) 기기에선 구현이 어려웠다.

유 교수팀은 모바일 기기에서도 DRL을 가능케 하는 AI 반도체 기술 ‘옴니DRL’을 새로 개발했다고 밝혔다. 데이터 압축률을 끌어올리고, 압축 상태에서도 연산이 가능하도록 설계해 기존 AI 반도체보다 전력 효율을 2.4배 끌어올렸다고 설명했다. 뉴런 간 정보 전달 밀도가 높아지면 신경계가 기민해지면서 사람의 지능이 높아지는 것과 마찬가지로, ANN에서 데이터 압축률이 높아지면 AI 반도체 성능이 올라간다. 연구팀은 또 정수 단위 연산을 넘어 부동소수점(컴퓨터의 숫자 표기법) 연산이 가능한 AI 반도체를 처음 선보였다고 덧붙였다.

연구팀은 옴니DRL을 적용해 컴퓨터로 인간형 로봇(휴머노이드) 보행 시뮬레이션을 해보니 DRL을 탑재하지 않은 경우보다 안정적 보행 적응 속도가 7배 빨랐다고 밝혔다. 이번 연구 결과는 지난 6월 열린 글로벌 반도체 학회 ‘IEEE VLSI 심포지엄’에서 하이라이트 논문으로 발표됐다.

이해성 기자 ihs@hankyung.com