IT Life

[Technology Inside] Natural User Interface: 미래의 모습

2013. 4. 22. 17:16


'Technology Inside'는 IT업계에 종사하시는 분들에게 최근의 IT트렌드와 각 분야별 IT기술의 특징과 전망을 소개하는 칼럼입니다. 이 컨텐츠를 통해서 IT분야에 대한 식견을 넓히시는 기회가 되시기 바라며, 보다 심도있는 내용을 탐구하고자 하시는 분은 첨부된 PDF 파일을 참고하시기 바랍니다.

Interface(인터페이스)… 컴퓨터와 시스템에 대해 좀 아는(?) 사람들이 즐겨 쓰는 이 용어는 무엇을 지칭하는 걸까요? 인터페이스는 다양한 영역에서 광범위하게 사용되는 용어이지만 일반적으로 자주 사용하는 컴퓨터에 적용해 보자면 ‘키보드와 마우스처럼 컴퓨터와 같은 특정기기에 명령을 전달하는 도구’ 정도로 정의할 수 있습니다. 인터페이스가 중요해지는 것은, 바로 인터페이스의 변화에 따라 앞으로 미래에는 컴퓨터 활용 모습이 공상과학 영화에서 묘사되는 것처럼 첨단의 모습으로 변화할 수 있다는 점 때문입니다.

이제 컴퓨터는 PC 뿐 아니라 ‘스마트 폰’, ‘스마트 TV’와 같은 형태로 우리의 생활 속에 밀접한 기기로 자리잡고 있는데요. 컴퓨터의 ‘똑똑한 기능’을 갖는 것뿐 아니라, 예를 들어 사람의 몸짓만으로도 움직이는 컴퓨터, 혹은 TV도 상상해 볼 수 있고 또 반대로 컴퓨터가 나에게 말을 걸어올 수도 있습니다. 말로 명령해서 레스토랑을 예약할 수 있으며, 생각만으로도 자동차를 움직일 수 있게 됩니다. 바로 인터페이스의 변화가 이렇게 놀라운 미래를 이끌고 있습니다.

우리가 지금까지 사용해왔던 인터페이스의 구조, 즉 키보드와 마우스가 이제까지 컴퓨터에게 명령을 내릴 수 있는 주된 도구였다면 앞으로는 음성이나 몸짓, 생각도 그러한 역할을 담당하게 된다는 것입니다.

‘생각’으로 컴퓨터를 움직인다고 하면 놀라는 분들도 계실 텐데요. 아주 먼 미래의 얘기가 아니라 실제로 생각을 읽는 제품들이 이미 나와 있습니다.


그림 1. 생각(뇌파)을 읽을 수 있는 Emotiv의 헤드셋 (출처: Emotiv 홈페이지)

사이버틱하게 생긴 이 제품은 실제로 2009년부터 시판된 상용화 제품입니다. ‘생각’을 읽는다고 했는데 정확히 표현하자면 뇌의 전기신호를 읽는 것입니다. 사람이 생각할 때는 뇌의 수많은 신경에서 전기 신호가 발생하게 되는데요. 이 기기는 이 신호를 뇌 표면에서 감지하고 측정할 수 있다고 합니다. 이를 활용한 게임들도 나오고 있습니다. 마치 영화 ‘Star Wars(스타워즈)’에서 ‘Force(포스)’를 쓰는 것처럼 내 생각이 게임을 통해 구현되는 모습, 멋지지 않나요?

 

최근의 IT뉴스를 보면 ‘음성인식’, ‘제스처인식’, ‘NUI(Natural User Interface)’ 등의 단어가 심심치 않게 등장하는 것을 볼 수 있습니다. 음성인식 분야는 아이폰(iPhone)4S가 출시 되면서 시리(Siri)라는 사용자와 대화하는 서비스를 선보인 이후에 다양한 업체에서 ‘음성인식 서비스’를 출시하며, 상용화되는 모습을 볼 수 있고요. 또한, 제스처 인식은 마이크로소프트(Microsoft, MS)가 몇 년 전 신개념 게임 컨트롤러인 Kinect(키넥트)를 내놓으면서 주목받기 시작했습니다. 그리고 이처럼 혁신적 기술을 상용화하는 것에 대한 사용자들의 기대심리도 더욱 높아지고 있으며, 이에 부응한 유사 서비스 제품들도 잇따라 출시되고 있습니다.

이러한 혁신적 제품의 탄생은 제품을 구성하는 관련 기술의 획기적인 발전이 있었기 때문에 가능한 것이었습니다. ‘음성인식 기술’의 경우, 단순히 음성을 문장으로 변환하는 것 외에도 그 문장을 실제로 이해하는 것이 중요한데요. 이를 위해 Apple은 Siri라는 업체를 인수하여 iPhone의 기술경쟁력을 확보하였습니다. 또한, MS의 Kinect는 센서기술의 발전과 함께 Primesense(프라임센스)사의 ‘제스처 인식 기술’이 있었기 때문에 가능했던 제품이었습니다. 그리고 이와 같은 기술들은 스마트 폰의 대중화와 더불어, 스마트 폰의 새로운 기능으로 적용되면서 사용자들에게 자연스럽게 받아들여지고 있습니다.

이렇게 음성인식이나 제스처인식 등 다양한 인식 기술을 통하여 사용자가 기기를 제어하는 부분을 NUI(Natural User Interface)라고 부릅니다.

 

NUI는 ‘사용자가 시스템(PC, 모바일 등)과 직접 상호작용할 수 있는 인터페이스 기술’로 정의할 수 있습니다. 즉 마우스나 키보드와 같은 별도의 인공적인 장치 없이도 사람의 대화/행동/감각/인지 능력을 통해, 직접 교감하는 방식으로 디지털 기기를 제어하는 것을 말합니다.

대표적인 NUI영역으로는 1) 사용자의 동작을 명령어로 인식하는 Gesture Interface(제스쳐 인터페이스: 동작인식), 2) 사용자의 다양한 터치를 명령어로 인식하는 Multi-touch Interface(멀티터치 인터페이스: 터치인식), 3) 사용자의 음성을 명령어로 인식하는 Voice Interface(보이스 인터페이스: 음성인식), 그리고 4) 사용자의 뇌파 변화(의도)를 읽어 명령어로 인식하는 Sensory Interface(센서리 인터페이스: 뇌파인식)가 있습니다. 물론 이 외에도 눈동자 인식 인터페이스나 감정인식 인터페이스 등도 있으나 대표적인 영역을 중심으로 살펴보도록 하겠습니다.


그림 2. NUI의 다양한 영역 (출처: LG CNS Technology Outlook)

 

Gesture Interface는 사용자의 움직임을 카메라로 분석하여 사용자의 의도를 시스템이 이해하고 반응하는 기술이라고 할 수 있습니다. 사용자의 움직임을 인식하기 위해 사용자를 3D 형태로 캡처하고 동작을 인식하여 어떤 명령어를 의도했는지 파악하여 그 결과를 애플리케이션에 전달하면 애플리케이션에서 이를 바탕으로 명령을 수행합니다.

MS의 Kinect가 가장 대표적인 제품으로써 게임 콘솔인 XBox의 새로운 컨트롤러로 출시했으며 2012년부터 Windows 용으로도 출시하였습니다. 게임에서 제일 많이 활용되고 있으나 다양한 산업에서도 활용코자 하는 시도가 이어지고 있습니다. 아주 간단한 예로, 파워포인트를 이용한 발표에서 다음 슬라이드로 넘기고자 할 때 따로 컨트롤러를 지니고 있지 않아도 손동작만으로도 슬라이드를 넘길 수 있습니다.


그림 3. 손동작으로 슬라이드 넘기기

 

음성인식 인터페이스는 사용자의 대화를 텍스트로 변환하고 변환된 문장을 분석하여 의미를 이해하고 결과를 도출하는 기술입니다. 간단해 보이는 기술이지만 음성을 정확하게 텍스트로 변환하는 것이 매우 중요하고 변환된 텍스트에서 실제 명령의 기반이 되는 의미를 추출해야 하는 부분이 매우 중요하고 어려운 부분입니다. 


그림 4. iPhone Siri를 이용한 영화 티켓 구매

Apple의 iPhone에는 Siri 음성인식 S/W가 탑재되어 있습니다. Siri는 음성을 인식하는 가상 비서 S/W로써 사람과 대화하듯 날씨를 비롯한 다양한 정보에 대해 질문을 하면 답변을 해주고 알람 설정이나 SMS를 음성만으로 사용할 수 있으며 더 나아가 영화 티켓 구매와 같이 여러 단계가 필요한 프로세스는 더 편리하게 처리할 수 있습니다.

 


그림 5. Perceptive Pixel의 대형화면 멀티터치 제품 (출처: thenextweb.com)

멀티터치 인터페이스는 많은 사람이 사용하고 있는 스마트 폰의 멀티터치 인터페이스입니다. 최근에는 대형 화면에서의 멀티터치 인터페이스도 주목을 받고 있습니다. 대형화면에서의 멀티터치는 다중사용자 입력이 가능하여 2명 이상의 사용자가 동시에 여러 서비스를 실행해도 작동하도록 설계되어 있습니다. MS나 Perceptive Pixel(MS에서 ‘12년 인수)사는 40인치~80인치대의 대형화면 멀티터치 제품을 출시하여 엔터테인먼트 산업이나 광고, 국방 산업 등에서 활용되도록 하고 있습니다.

 

BCI(Brain-Computer Interface)라고도 불리는 뇌파인식 인터페이스는 서두에 서술된 바와 같이 사용자의 생각에 따른 뇌파의 변화를 감지하고 수집하여 PC와 상호작용할 수 있는 인터페이스 기술입니다. 뇌파의 변화를 측정하는 방식은 크게 2가지로 훈련을 통하여 특정 뇌파를 유도하는 ‘뇌파 유도 방식’과 사용자가 일반적으로 생각하고 있을 때 뇌파를 인식하는 ‘뇌파 인식 방식’이 있습니다. 당연히 ‘뇌파 유도 방식’이 정확도가 더 높습니다. 뇌파 인식 인터페이스는 다양한 산업에서 응용을 시도하고 있습니다. 게임에서 컨트롤러의 대체재로 활용하거나 의료에서 집중력 장애 치료로써, 또는 PC나 휠체어의 인터페이스로서도 실험되고 있습니다.

그런데 개념만 들어도 엄청난 제품이 왜 아직도 뜨지 못하고 있을까요? 아직은 한계가 많기 때문입니다. 첫째는, 주로 전기신호로 이루어지는 BCI는 폭넓게 이용하기에는 정확도 측면에서 아직은 많이 떨어집니다. 전기 신호는 전자 제품이나 심지어 근육 등에서도 발생하기 때문에 간섭이 많습니다. 둘째는, 입력 측면에서 입력 가능한 명령어 개수에 한계가 있습니다. 현재는 10개 이하의 명령만 인식할 수 있습니다. 따라서 단순한 게임 컨트롤 정도는 가능하지만, 키보드나 마우스와 같은 정교한 인식은 불가능하고 이러한 한계 탓에 아직 대중화되지 못하고 있습니다. 다만 매우 혁신적인 기술이므로 미래에 더 많은 사례를 볼 수 있을 것입니다.

 

여러 가지 한계에도 불구하고NUI는 기술적으로 계속 발전하고 있고 활용 측면에서도 서서히 증가세를 보이고 있습니다. 그뿐만 아니라, 개별 기술들이 통합된 서비스나 제품들이 선보이고 있습니다. 한 사례로 Intel에서는 음성/제스처/멀티터치 인터페이스가 모두 포함된 노트북을 데모로 시연하는가 하면 MS에서는 멀티터치와 제스처, 그리고 프로젝터를 합쳐서 휴대용 멀티터치 프로젝션 시스템을 프로토타입 형태로 시연하기도 하였습니다.


그림 6. Mouse Interface vs. Touch Interface (출처: LG CNS Technology Outlook)

그리고 NUI로 인하여 변화하는 인터페이스 측면에서도 고민이 필요합니다. 그림4 같은 경우에도 볼 수 있듯이 마우스 인터페이스와 터치 인터페이스는 상당히 다르므로 제품 설계 초반부터 인터페이스에 대한 전략적인 설계가 필요합니다. Windows 8의 경우는 터치 인식을 고려하여 처음 나타나는 메뉴를 재설계한 것을 볼 수 있습니다. 터치 및 모바일 인터페이스의 경우 화면이 작으므로 옵션 메뉴나 부가 정보가 주 화면을 최대한 방해하지 않게 하는 등 여러 가지를 고려해야 합니다.

NUI는 표면적으로는 사용자가 컴퓨터와 상호작용하는 영역이지만 필요한 기술의 발전이나, 이로 인해 가능해지는 여러 가지 서비스들에 혁신적인 부분이 많으므로 가볍게 간과하지 말고 지속적으로 관심을 가지고 보는 것이 중요할 것으로 예상합니다. 컴퓨팅 신기술은 늘 우리에게 ‘놀라운 신세계’를 현실로 선물해 주었는데요, 지속적인 기술 발전을 통해서 NUI도 언젠가 우리에게 놀랍고 편리한 세상을 현실로 정착시켜 줄 것이라 믿습니다.

l 글 김태우 선임연구원 (tkim@lgcns.com) l LG CNS 기술전략그룹

06 Natural User Interface_김태우.pdf

Posted by IT로 만드는 새로운 미래를 열어갑니다 LG CNS

댓글을 달아 주세요

위로