한주 걸렸던 학습량 이틀 만에…더 똘똘해진 인공지능
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
한국전자통신연구원, 학습 시간 줄인 고속 처리 기술 개발
국내 연구진이 인공지능의 학습 시간을 대폭 줄일 수 있는 컴퓨팅 기술을 내놨다.
10일 한국전자통신연구원(ETRI)에 따르면 ETRI 인공지능(AI)연구소 연구팀은 딥러닝 분산 학습에 최적화한 고속 처리 기법을 구현했다.
분산 학습은 AI의 데이터 처리 능력을 극대화하는 방식이다.
말 그대로 여러 대의 컴퓨터를 동시에 돌리면서 대규모 자료를 나눠 학습시킨다.
여러 컴퓨터를 동시에 실행할 때 나타나는 한계도 있다.
이른바 '통신 병목 현상'이다.
컴퓨터 간 통신량이 많다 보니 특정 지점에서 성능이나 용량이 저하할 수 있다.
ETRI 연구진은 '메모리 박스'(Memory Box)라고 불리는 공유기억장치를 만들어 통신 병목 현상을 해소했다.
메모리 박스는 컴퓨터 중간에 위치해 컴퓨터 간 학습 내용을 공유하도록 돕는다.
일종의 가상 공유 메모리 역할이다.
이렇게 하면 대대적인 장비 교체 없이 최소 투자로 동일한 환경에서 딥러닝 학습 시간을 대폭 줄일 수 있다.
실제 1천가지 종류의 이미지 128만 장을 분류하는 모델을 1만 번 반복 학습시켰더니 7분 31초 만에 작업을 마쳤다.
기존 방식 16분 23초보다 2배 이상 빠른 셈이다.
딥러닝 프레임워크 개발 모델 상황에 따라 최대 4.2배까지 빠르게 학습할 수 있다고 연구팀은 설명했다.
예컨대 일주일 걸렸던 학습량을 이틀 안에 배울 수 있다는 설명이다.
최완 ETRI 책임연구원은 "글로벌 기업이 독식한 AI 컴퓨팅 인프라 시장에서 우리 기술이 더 선전할 수 있도록 지속해서 노력할 것"이라고 말했다.
ETRI는 독일에서 열린 유럽 최대 가전·IT 전시회 'IFA 2019'에서 딥러닝 연구를 돕는 대시보드와 함께 이 기술을 세계에 선보였다.
/연합뉴스
10일 한국전자통신연구원(ETRI)에 따르면 ETRI 인공지능(AI)연구소 연구팀은 딥러닝 분산 학습에 최적화한 고속 처리 기법을 구현했다.
분산 학습은 AI의 데이터 처리 능력을 극대화하는 방식이다.
말 그대로 여러 대의 컴퓨터를 동시에 돌리면서 대규모 자료를 나눠 학습시킨다.
여러 컴퓨터를 동시에 실행할 때 나타나는 한계도 있다.
이른바 '통신 병목 현상'이다.
컴퓨터 간 통신량이 많다 보니 특정 지점에서 성능이나 용량이 저하할 수 있다.
ETRI 연구진은 '메모리 박스'(Memory Box)라고 불리는 공유기억장치를 만들어 통신 병목 현상을 해소했다.
메모리 박스는 컴퓨터 중간에 위치해 컴퓨터 간 학습 내용을 공유하도록 돕는다.
일종의 가상 공유 메모리 역할이다.
이렇게 하면 대대적인 장비 교체 없이 최소 투자로 동일한 환경에서 딥러닝 학습 시간을 대폭 줄일 수 있다.
실제 1천가지 종류의 이미지 128만 장을 분류하는 모델을 1만 번 반복 학습시켰더니 7분 31초 만에 작업을 마쳤다.
기존 방식 16분 23초보다 2배 이상 빠른 셈이다.
딥러닝 프레임워크 개발 모델 상황에 따라 최대 4.2배까지 빠르게 학습할 수 있다고 연구팀은 설명했다.
예컨대 일주일 걸렸던 학습량을 이틀 안에 배울 수 있다는 설명이다.
최완 ETRI 책임연구원은 "글로벌 기업이 독식한 AI 컴퓨팅 인프라 시장에서 우리 기술이 더 선전할 수 있도록 지속해서 노력할 것"이라고 말했다.
ETRI는 독일에서 열린 유럽 최대 가전·IT 전시회 'IFA 2019'에서 딥러닝 연구를 돕는 대시보드와 함께 이 기술을 세계에 선보였다.
/연합뉴스