'생각을 읽어 움직이는 로봇팔'…뇌파 통해 사용자 의도 파악
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
KAIST, 로봇팔 조종 뇌-기계 인터페이스 개발…정확도 90% 이상
한국과학기술원(KAIST)은 바이오 및 뇌공학과 정재승 교수 연구팀이 생각만으로 로봇팔을 조종하는 '뇌-기계 인터페이스 시스템'을 개발했다고 23일 밝혔다.
뇌-기계 인터페이스는 사용자가 의도한 뇌 활동의 의미를 읽고, 로봇·기계에 전달하는 기술이다.
로봇·드론·컴퓨터뿐만 아니라 스마트 모바일 기기, 메타버스(3차원 가상세계) 등에서 이용될 차세대 기술로 떠오르는 중이다.
기존 인터페이스는 손과 같은 외부 신체 기관이 버튼·터치·제스처 등으로 명령을 간접 전달해야 하지만, 뇌-기계 인터페이스는 명령을 뇌로부터 직접 전달한다는 점에서 가장 진보된 인터페이스 기술로 여겨진다.
정 교수 연구팀은 인공지능(AI)과 유전자 알고리즘(Genetic Algorithm)을 사용해 인간 대뇌 심부에서 측정한 뇌파만으로 팔 움직임 의도를 파악해 로봇팔을 제어하는 새로운 형태의 뇌-기계 인터페이스 시스템을 개발했다.
연구팀이 만든 뇌-기계 인터페이스 인공지능 모델은 3차원상에서 24가지 방향 즉, 각 차원에서 8가지 방향으로 움직일 수 있다.
정확도 또한 모든 방향에서 평균 90% 이상(90.9∼92.6% 범위)을 기록했다.
연구팀은 이번 연구에서 축적 컴퓨팅(Reservoir Computing) 기법을 이용해 낮은 사양 하드웨어에서도 인공지능 학습이 가능하게 했다.
정재승 교수는 "기존 뇌-기계 인터페이스 시스템 대부분은 고사양 하드웨어가 필요해 실시간 응용으로 나아가기 어렵고, 스마트기기 등으로 적용이 어려웠다"며 "이번에 개발된 기술은 메타버스 안에서 아바타를 생각대로 움직이게 하거나 앱을 생각만으로 제어하는 스마트기기 등에 광범위하게 사용될 수 있다"고 말했다.
이번 연구는 국제학술지 '어플라이드 소프트 컴퓨팅' 3월호에 게재됐다.
/연합뉴스
뇌-기계 인터페이스는 사용자가 의도한 뇌 활동의 의미를 읽고, 로봇·기계에 전달하는 기술이다.
로봇·드론·컴퓨터뿐만 아니라 스마트 모바일 기기, 메타버스(3차원 가상세계) 등에서 이용될 차세대 기술로 떠오르는 중이다.
기존 인터페이스는 손과 같은 외부 신체 기관이 버튼·터치·제스처 등으로 명령을 간접 전달해야 하지만, 뇌-기계 인터페이스는 명령을 뇌로부터 직접 전달한다는 점에서 가장 진보된 인터페이스 기술로 여겨진다.
정 교수 연구팀은 인공지능(AI)과 유전자 알고리즘(Genetic Algorithm)을 사용해 인간 대뇌 심부에서 측정한 뇌파만으로 팔 움직임 의도를 파악해 로봇팔을 제어하는 새로운 형태의 뇌-기계 인터페이스 시스템을 개발했다.
연구팀이 만든 뇌-기계 인터페이스 인공지능 모델은 3차원상에서 24가지 방향 즉, 각 차원에서 8가지 방향으로 움직일 수 있다.
정확도 또한 모든 방향에서 평균 90% 이상(90.9∼92.6% 범위)을 기록했다.
연구팀은 이번 연구에서 축적 컴퓨팅(Reservoir Computing) 기법을 이용해 낮은 사양 하드웨어에서도 인공지능 학습이 가능하게 했다.
정재승 교수는 "기존 뇌-기계 인터페이스 시스템 대부분은 고사양 하드웨어가 필요해 실시간 응용으로 나아가기 어렵고, 스마트기기 등으로 적용이 어려웠다"며 "이번에 개발된 기술은 메타버스 안에서 아바타를 생각대로 움직이게 하거나 앱을 생각만으로 제어하는 스마트기기 등에 광범위하게 사용될 수 있다"고 말했다.
이번 연구는 국제학술지 '어플라이드 소프트 컴퓨팅' 3월호에 게재됐다.
/연합뉴스