[촌철살IT] "알파고는 진정한 인공지능 아냐…내년 중2수준 AGI 내놓겠다"
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
폴 리 마인드AI 대표 인터뷰
옥스퍼드 출신 창업가의 'AGI 프로젝트'
옥스퍼드 출신 창업가의 'AGI 프로젝트'
“알파고는 진정한 인공지능(AI)이 아니라고 생각합니다.”
폴 리(한국명 이정환) 마인드AI 대표(38·사진)는 인터뷰 첫머리에 대뜸 이렇게 말했다. 전세계가 주목한 ‘세기의 대국’에서 이세돌 9단을 이겨 AI의 대명사로 각인된 구글산(産) 알파고다. 제대로 된 AI가 아니라니, 무슨 말일까.
“사실 알파고는 자신이 바둑을 두는 줄 몰라요. 확률게임을 할 뿐이죠. 아주 성능 좋은 계산기인 셈인데 이걸 AI라 해도 될까요? 제대로 된 AI라면 ‘지능’이 있어야 합니다. 스스로 생각하고 학습하는 능력이 핵심이에요. 이세돌 9단에게 지더라도 바둑의 원리를 알아야 진정한 AI 아닐까요.”
‘스스로 사고하는 인공지능(마인드AI)’. 리 대표는 자신이 그리는 진정한 AI의 요체를 회사명에 담았다. 확률계산을 넘어 자연언어로 된 명제를 입력하면 직접 판단할 수 있는 형태의 범용 인공지능, 즉 AGI(Artificial General Intelligence)를 만드는 걸 목표로 삼았다. 도덕과 윤리까지 포함해 인간과 흡사한 추론을 할 수 있는 게 특징. 올 3월부터 위키피디아처럼 상식 수준 명제를 입력하기 시작해 연내 중2 수준 사고력을 갖춘 AGI로 발전시킨다는 구상이다.
그는 독특한 이력의 소유자다. 대기업 해외근무 발령을 받은 아버지를 따라 초등학교 입학 전 해외로 나간 뒤 영국 옥스퍼드대에서 분자세포생화학을 전공했다. 이후 국내 가톨릭대 의대 본과에 편입, 졸업해 임상의 자격을 갖춘 의사이자 과학자다. 미국의 건강 및 애완동물 산업 관련 플랫폼 ‘큐얼리 & 커들리(Curely & Kuddly)’를 공동 설립한 사업가이기도 하다.
리 대표는 2012년 큐얼리 & 커들리 창업 후 플랫폼에 참여하는 의사를 3000명 이상 모았다. 그러자 IBM의 의료용 AI ‘왓슨 포 온콜로지’가 파트너십을 제의해왔다. 흔쾌히 수락하고 들여다본 왓슨의 구조는 적잖이 실망스러웠다고 했다.
“막상 분석해보니 제가 생각했던 AI와는 상당히 괴리가 있더군요. 그때부터 진정한 AI는 무엇인지, 어떻게 만들어야 제대로 된 AI가 나올지 고민하고 연구하기 시작했죠.”
지금은 AI 개념이 남발·오용되고 있다면서 “계산기는 아무리 성능이 뛰어나도 AI라 할 수 없다. 계산기에 무엇을 입력해야 하는지 알아야 제대로 된 AI”라는 설명이 뒤따랐다. 컴퓨터로 치면 중앙처리장치(CPU) 역할을 해야 한다는 것이다.
리 대표가 AI를 연구하는 과학자 등 전문가들과 손잡고 설립한 마인드AI는 백서(사업계획서)에서 주류 AI의 구동원리에 대해 “신경망 기반 기계학습 시스템은 복잡한 계산을 수행하고 놀라울 정도로 정확하지만 이 알고리즘을 지능으로 일컫는 건 삼가야 한다”고 주장했다.
그는 5번의 대국 중 알파고가 진 한 번이 기존 AI의 문제점을 극명하게 드러냈다고 했다. “알파고가 이해하기 힘든 수를 둔 이유를 아무도 모르는 게 문제죠. 데이터 넣고 수없이 시뮬레이션 돌린 결과니까 ‘왜’라는 의문에 대해선 깜깜한 블랙박스입니다. 반면 사람처럼 추론한다면 어떨까요. 왜 그런 결과가 나왔는지 알 수 있고, 그 부분만 고치거나 바꿀 수도 있어요.”
마인드AI는 사람과 같은 추론을 수행하기 위해 자연언어를 데이터 구조로 변환하는 AI 엔진이다. 입력된 자연언어는 ‘캐노니컬’이라 명명한 사고의 삼각 기본단위를 거치면 AI가 스스로 추론할 수 있게 모형화된다. 캐노니컬은 △논리적이되 새로운 사실을 밝혀내기 어려운 연역법(deduction) △일반 사례들을 취합해 개연성을 뽑아내는 귀납법(induction) △연역법과 귀납법의 공백을 풀어나가는 절충적 추론방식인 가추법(abduction)으로 구성됐다.
이 핵심 추론 엔진은 텍스트에 불완전한 데이터가 포함돼도 AI가 자연언어를 이용해 사고할 수 있는 데이터 구조로 이미 국제 특허를 받았다. AI 엔진을 구동하는 연료 격인 명제는 ‘온톨로지’라 이름 지었다. 사고 행위에 필요한 기본 명제나 상식으로 간주하면 이해하기 쉽다.
“예컨대 ‘하늘은 파랗다’ ‘무게가 있으면 중력이 작용한다’ 같은 상식적 명제가 있잖아요. 사람들은 이런 대명제들을 토대로 생각을 합니다. 온톨로지란 바로 명제들을 집어넣는 거예요. AGI가 사고할 수 있는 밑바탕을 쌓는 작업이죠.”
축적된 온톨로지가 ‘임계점’에 다다르면 AGI는 스스로 학습할 수 있다. 리 대표는 “파일럿과 보잉747이란 용어를 제시한다고 하자. 종전에는 ‘보잉747이 뭐냐’고 물었다면, 파일럿이 뭔지 아는 지금은 ‘보잉747은 비행기냐’라고 묻는 식으로 지능 수준이 올라간다”며 “곧 제네바에서 열리는 국제행사에 참석해 마인드AI의 새 데모 버전을 선보일 예정”이라고 귀띔했다.
그는 주요 단어 2000~3000개 가량을 알면 영어도 80% 정도 구사 가능하듯 임계점 도달에 필요한 온톨로지가 엄청난 양의 데이터를 요구하진 않을 것이라고 덧붙였다. 임계점까지 올라오면 스스로 인터넷을 돌아다니며 지식을 습득할 수 있어 AI 지능 수준이 기하급수적으로 올라간다고도 했다.
AGI 프로젝트를 차근차근 설명하며 눈을 반짝이는 리 대표에게, AI에 잘못된 명제를 입력하는 문제는 어떻게 걸러낼 생각이냐고 물었다. 이미 편향된 데이터의 문제로 인해 AI가 인종차별 논란을 빚은 적 있는 터이다.
그는 “왜 걸러내야 하느냐”고 반문했다. 이어 “AGI는 사람과 같은 방식으로 사고하므로 특정 명제를 안다고 해서 무조건 실행하진 않는다. 일례로 ‘칼로 사람을 찌른다’와 ‘그래선 안 된다’는 명제가 동시에 있다”면서 “따라서 AGI에는 윤리와 도덕 요소가 중요하다. 온톨로지를 넣으며 집단적으로 만들어가는 뇌인 만큼 커뮤니티가 개입할 수 있게 했다”고 말했다.
마인드AI가 인공지능에 블록체인을 결합한 이유다. ‘인공 양심’이라 칭할 수 있는 상위 개념의 윤리적 온톨로지를 만들 때 신뢰가능한 민주적 투표를 위해선 위·변조 없이 투명한 블록체인 기술이 필요하다고 판단했다.
“마인드AI가 꿈꾸는 AGI는 중앙화 구조로 만들었다간 누군가 독점할 경우 위험성이 큽니다. 자칫 AI가 터미네이터나 사이코패스가 될 수도 있으니까요. 그래서 누구나 들어올 수 있는 캐노니컬과 엔진, 두 가지 탈중앙화 시스템으로 만들었습니다. 상황에 따라 둘의 연결마저 끊어버리는 ‘킬 스위치’를 작동할 수 있도록 해 이중삼중 안전장치를 마련하려 노력했죠.”
한 시간 남짓 문답 끝에 사업가라기보단 연구개발(R&D)을 하는 과학자나 연구자와 얘기한 듯한 느낌이 들었다. 인터뷰를 마치며 “학계로 갈 생각은 없었느냐”고 던진 우문에 현답이 돌아왔다.
“느려요! 지금 이 흐름의 속도를 절대 못 따라갑니다. 일일이 정부 지원금 따내면서 하는 연구로 이노베이션(혁명)이 일어나기는 정말 어렵죠. 똘끼 있는 친구들이 하기엔 갑갑하고, 제가 연구에만 매달리는 성격도 아니라서요(웃음). 가장 큰 이유는 학계가 너무 느리다는 겁니다.”
김봉구 한경닷컴 기자 kbk9@hankyung.com
기사제보 및 보도자료 open@hankyung.com
폴 리(한국명 이정환) 마인드AI 대표(38·사진)는 인터뷰 첫머리에 대뜸 이렇게 말했다. 전세계가 주목한 ‘세기의 대국’에서 이세돌 9단을 이겨 AI의 대명사로 각인된 구글산(産) 알파고다. 제대로 된 AI가 아니라니, 무슨 말일까.
“사실 알파고는 자신이 바둑을 두는 줄 몰라요. 확률게임을 할 뿐이죠. 아주 성능 좋은 계산기인 셈인데 이걸 AI라 해도 될까요? 제대로 된 AI라면 ‘지능’이 있어야 합니다. 스스로 생각하고 학습하는 능력이 핵심이에요. 이세돌 9단에게 지더라도 바둑의 원리를 알아야 진정한 AI 아닐까요.”
‘스스로 사고하는 인공지능(마인드AI)’. 리 대표는 자신이 그리는 진정한 AI의 요체를 회사명에 담았다. 확률계산을 넘어 자연언어로 된 명제를 입력하면 직접 판단할 수 있는 형태의 범용 인공지능, 즉 AGI(Artificial General Intelligence)를 만드는 걸 목표로 삼았다. 도덕과 윤리까지 포함해 인간과 흡사한 추론을 할 수 있는 게 특징. 올 3월부터 위키피디아처럼 상식 수준 명제를 입력하기 시작해 연내 중2 수준 사고력을 갖춘 AGI로 발전시킨다는 구상이다.
그는 독특한 이력의 소유자다. 대기업 해외근무 발령을 받은 아버지를 따라 초등학교 입학 전 해외로 나간 뒤 영국 옥스퍼드대에서 분자세포생화학을 전공했다. 이후 국내 가톨릭대 의대 본과에 편입, 졸업해 임상의 자격을 갖춘 의사이자 과학자다. 미국의 건강 및 애완동물 산업 관련 플랫폼 ‘큐얼리 & 커들리(Curely & Kuddly)’를 공동 설립한 사업가이기도 하다.
리 대표는 2012년 큐얼리 & 커들리 창업 후 플랫폼에 참여하는 의사를 3000명 이상 모았다. 그러자 IBM의 의료용 AI ‘왓슨 포 온콜로지’가 파트너십을 제의해왔다. 흔쾌히 수락하고 들여다본 왓슨의 구조는 적잖이 실망스러웠다고 했다.
“막상 분석해보니 제가 생각했던 AI와는 상당히 괴리가 있더군요. 그때부터 진정한 AI는 무엇인지, 어떻게 만들어야 제대로 된 AI가 나올지 고민하고 연구하기 시작했죠.”
지금은 AI 개념이 남발·오용되고 있다면서 “계산기는 아무리 성능이 뛰어나도 AI라 할 수 없다. 계산기에 무엇을 입력해야 하는지 알아야 제대로 된 AI”라는 설명이 뒤따랐다. 컴퓨터로 치면 중앙처리장치(CPU) 역할을 해야 한다는 것이다.
리 대표가 AI를 연구하는 과학자 등 전문가들과 손잡고 설립한 마인드AI는 백서(사업계획서)에서 주류 AI의 구동원리에 대해 “신경망 기반 기계학습 시스템은 복잡한 계산을 수행하고 놀라울 정도로 정확하지만 이 알고리즘을 지능으로 일컫는 건 삼가야 한다”고 주장했다.
그는 5번의 대국 중 알파고가 진 한 번이 기존 AI의 문제점을 극명하게 드러냈다고 했다. “알파고가 이해하기 힘든 수를 둔 이유를 아무도 모르는 게 문제죠. 데이터 넣고 수없이 시뮬레이션 돌린 결과니까 ‘왜’라는 의문에 대해선 깜깜한 블랙박스입니다. 반면 사람처럼 추론한다면 어떨까요. 왜 그런 결과가 나왔는지 알 수 있고, 그 부분만 고치거나 바꿀 수도 있어요.”
마인드AI는 사람과 같은 추론을 수행하기 위해 자연언어를 데이터 구조로 변환하는 AI 엔진이다. 입력된 자연언어는 ‘캐노니컬’이라 명명한 사고의 삼각 기본단위를 거치면 AI가 스스로 추론할 수 있게 모형화된다. 캐노니컬은 △논리적이되 새로운 사실을 밝혀내기 어려운 연역법(deduction) △일반 사례들을 취합해 개연성을 뽑아내는 귀납법(induction) △연역법과 귀납법의 공백을 풀어나가는 절충적 추론방식인 가추법(abduction)으로 구성됐다.
이 핵심 추론 엔진은 텍스트에 불완전한 데이터가 포함돼도 AI가 자연언어를 이용해 사고할 수 있는 데이터 구조로 이미 국제 특허를 받았다. AI 엔진을 구동하는 연료 격인 명제는 ‘온톨로지’라 이름 지었다. 사고 행위에 필요한 기본 명제나 상식으로 간주하면 이해하기 쉽다.
“예컨대 ‘하늘은 파랗다’ ‘무게가 있으면 중력이 작용한다’ 같은 상식적 명제가 있잖아요. 사람들은 이런 대명제들을 토대로 생각을 합니다. 온톨로지란 바로 명제들을 집어넣는 거예요. AGI가 사고할 수 있는 밑바탕을 쌓는 작업이죠.”
축적된 온톨로지가 ‘임계점’에 다다르면 AGI는 스스로 학습할 수 있다. 리 대표는 “파일럿과 보잉747이란 용어를 제시한다고 하자. 종전에는 ‘보잉747이 뭐냐’고 물었다면, 파일럿이 뭔지 아는 지금은 ‘보잉747은 비행기냐’라고 묻는 식으로 지능 수준이 올라간다”며 “곧 제네바에서 열리는 국제행사에 참석해 마인드AI의 새 데모 버전을 선보일 예정”이라고 귀띔했다.
그는 주요 단어 2000~3000개 가량을 알면 영어도 80% 정도 구사 가능하듯 임계점 도달에 필요한 온톨로지가 엄청난 양의 데이터를 요구하진 않을 것이라고 덧붙였다. 임계점까지 올라오면 스스로 인터넷을 돌아다니며 지식을 습득할 수 있어 AI 지능 수준이 기하급수적으로 올라간다고도 했다.
AGI 프로젝트를 차근차근 설명하며 눈을 반짝이는 리 대표에게, AI에 잘못된 명제를 입력하는 문제는 어떻게 걸러낼 생각이냐고 물었다. 이미 편향된 데이터의 문제로 인해 AI가 인종차별 논란을 빚은 적 있는 터이다.
그는 “왜 걸러내야 하느냐”고 반문했다. 이어 “AGI는 사람과 같은 방식으로 사고하므로 특정 명제를 안다고 해서 무조건 실행하진 않는다. 일례로 ‘칼로 사람을 찌른다’와 ‘그래선 안 된다’는 명제가 동시에 있다”면서 “따라서 AGI에는 윤리와 도덕 요소가 중요하다. 온톨로지를 넣으며 집단적으로 만들어가는 뇌인 만큼 커뮤니티가 개입할 수 있게 했다”고 말했다.
마인드AI가 인공지능에 블록체인을 결합한 이유다. ‘인공 양심’이라 칭할 수 있는 상위 개념의 윤리적 온톨로지를 만들 때 신뢰가능한 민주적 투표를 위해선 위·변조 없이 투명한 블록체인 기술이 필요하다고 판단했다.
“마인드AI가 꿈꾸는 AGI는 중앙화 구조로 만들었다간 누군가 독점할 경우 위험성이 큽니다. 자칫 AI가 터미네이터나 사이코패스가 될 수도 있으니까요. 그래서 누구나 들어올 수 있는 캐노니컬과 엔진, 두 가지 탈중앙화 시스템으로 만들었습니다. 상황에 따라 둘의 연결마저 끊어버리는 ‘킬 스위치’를 작동할 수 있도록 해 이중삼중 안전장치를 마련하려 노력했죠.”
한 시간 남짓 문답 끝에 사업가라기보단 연구개발(R&D)을 하는 과학자나 연구자와 얘기한 듯한 느낌이 들었다. 인터뷰를 마치며 “학계로 갈 생각은 없었느냐”고 던진 우문에 현답이 돌아왔다.
“느려요! 지금 이 흐름의 속도를 절대 못 따라갑니다. 일일이 정부 지원금 따내면서 하는 연구로 이노베이션(혁명)이 일어나기는 정말 어렵죠. 똘끼 있는 친구들이 하기엔 갑갑하고, 제가 연구에만 매달리는 성격도 아니라서요(웃음). 가장 큰 이유는 학계가 너무 느리다는 겁니다.”
김봉구 한경닷컴 기자 kbk9@hankyung.com
기사제보 및 보도자료 open@hankyung.com