마우스나 키보드 없이도 컴퓨터 화면위의 커서를 움직일 수 있게 된다.

김재희 연세대 교수팀은 컴퓨터가 사용자의 눈과 얼굴 움직임을 인식해
커서를 이동시킬 수 있는 기술개발에 성공했다고 29일 밝혔다.

이번에 개발된 "컴퓨터 감성인터페이스"는 정부의 G7(선진기술개발사업)
과제중 하나로 최근 2년동안 추진돼온 사업이다.

이 기술은 컴퓨터에 부착된 고체촬상소자(CCD)카메라를 통해 입력된
영상으로부터 얼굴의 특징점과 눈위치를 분석해 사용자가 실제 응시하는
지점을 알아내는 기술을 기반으로 개발됐다.

이에따라 얼굴의 움직임을 통해 키보드나 마우스를 사용하지 않고도
사용자가 응시하는 위치를 따라 커서가 움직이도록 하는 것이다.

김 교수는 특히 화면을 바라보는 얼굴의 연속된 움직임을 영상정보로
만들어 얼굴이 위치하는 영역과 눈위치를 설정했다.

이를 통해 사용자 주변에 움직이는 물체가 있더라도 방해를 받지 않도록
한다는 것이다.

이같은 감성인터페이스 기술은 PC마우스 대용은 물론 장애자용 보조장치,
전투기조종 가상현실(VR)훈련 등에 다양하게 활용될 수 있다.

전투조종사가 일일이 손으로 표적을 조준하지 않더라도 눈으로 표적을
바라보면 곧바로 목표물을 설정하게 돼 보다 빠르게 발사할 수 있게 된다.

손을 사용할수 없는 지체장애자들이 각종 첨단가전제품을 편리하게
조작하는데 활용될 수도 있다.

여러 사람이 원격화상회의를 할 때도 대화를 원하는 상대방을 쳐다보기만
하면 컴퓨터가 이를 인식해 해당자와 대화를 나눌 수 있다.

항공기조종 운전 등의 VR시스템에선 얼굴위치 추적장비(포지션 트래커)를
대체하는 효과도 기대된다.

이밖에 자동차 운전자의 졸음방지시스템에 이 기술을 적용하면 "깜빡"
졸면서 얼굴위치가 흐트러지면 곧바로 경보를 울려 운전자를 깨울 수 있다.

상품매장의 경우에도 고객들이 관심을 갖고 많이 눈길을 주는 제품을
파악, 보다 효율적인 판매전략을 짜는데 도움을 주게 된다.

김 교수는 "앞으로 효성데이타시스템및 미국 에어포스리서치센터 등과
상품화를 위한 보완연구에 나설 예정"이라고 말했다.

< 손희식 기자 hssohn@ >

( 한 국 경 제 신 문 1998년 7월 30일자 ).