IT Life

[Smart Agent 2] ‘아이언맨’을 통해 본 스마트 에이전트 기술 세계로의 초대

2013. 5. 15. 13:31

 

스마트 에이전트(Smart Agent)를 소개하기 위해 지능형 에이전트(Intelligent Agent)부터 살펴 보았던 1편에 이어, 오늘 함께하는 2편은 스마트 에이전트를 가능하게 하는 기술입니다. 과연 그 기술에는 어떤 것이 있는지 지금부터 영화 속 이야기를 통해 소개해 드리겠습니다.



<그림 1> 영화 ‘아이언맨’에서 주인공이 자비스(Javis)를 사용하는 장면


영화 ‘아이언맨’을 본 사람이라면 강력한 수트(Suit)만큼이나 기억에 남는 기술이 있을 텐데요. 바로 괴짜 토니 스타크를 보조하는 인공지능형 에이전트(Agent) ‘자비스(Jarvis)’입니다. 자비스는 집에서부터 수트 안, 연구실 등 언제 어디서나 토니 스타크와 함께하고 있는데요. 이러한 자비스가 등장하는 장면을 통해서 스마트 에이전트(Smart Agent)를 가능하게 하는 다양한 기술을 살펴볼 수 있습니다.



<그림 2> 사용자와 대화하는 자비스(Jarvis)


 


자비스는 집 안에서, 아이언맨 슈트 안에서 토니 스타크와의 대화를 통해 구동되는 에이전트입니다. 토니 스타크가 자비스를 부르고, 질문이나 명령을 하면 자비스는 그 말을 ‘인지(Recognition)’하고 ‘이해(Understanding)’하여 그에 대한 적절한 ‘응대(Response)’를 하는데요. 이러한 일을 가능하게 하는 기술을 ‘자연어 처리 기술(NLP: Natural Language Processing)’이라고 합니다.. 


간단하게 위의 장면을 통해 활동이 어떻게 이루어졌는지 자비스의 입장에서 살펴볼까요? ① 먼저 자비스는 토미 스타크의 “Wake up, daddy’s home.”이라는 음성을 자신이 알아들을 수 있는 디지털 데이터로 인식합니다[음성인식]. ② 다음으로 이 문장을 분석하고 이해하여, 토미 스타크가 그의 아버지 집에 있는 각종 Home Automation/Car에 대한 제어를 원한다는 내용을 파악하죠[자연어 이해]. ③ 그러면 자비스는 토미 스타크의 아버지 집에 있는 각종 시스템을 메인 화면에 띄우며, 자신이 준비가 되었음을 알려주는 “Welcome Home, Sir.”이라는 반응을 합니다[자연어 생성]. ④ 그리고 이것을 음성 합성을 통해 보여 주죠. ⑤ 이후 ‘Daddy’s Home’에 대한 제어를 수행하면서, 토미 스타크의 명령을 하나씩 처리해 나갑니다. 


이것을 간단히 도식화해 보면, 아래 그림과 같이 표현해 볼 수 있는데요. 스마트 에이전트(Smart Agent)는 사용자의 말을 알아듣고 대화를 관리, 자연스럽게 전달하는 기술을 필수적으로 갖고 있습니다.



<그림 3> 자비스의 구동 방식



<그림 4> 사용자 친화형 UI(홀로그램 디스플레이 + 제스처 인식 UI)

 


영화를 보면 자비스는 단순히 ‘말’만 이해하는 에이전트가 아닙니다. 사용자의 다양한 니즈를 홀로그램 디스플레이를 통해 시각적으로 구현해 주고 있는데요. 또한, 단순히 보여 주는 데 그치는 것이 아니라 토니 스타크가 허공에 손을 휘저으면 사라지고, 손을 넣으면 필요한 부분만 따로 떼어 분석할 수 있게도 해 줍니다.


이 장면은 자비스가 디스플레이를 해 주는 데에서 더 나아가 ‘아이언맨의 핵 부분을 보여 줘’와 같은 말의 형태가 아닌, 토니 스타크가 ‘손을 집어 넣는 행위’를 통해 사용자 의도를 파악한다는 점에서 더욱 직관적이고 풍성한 사용자 경험을 보여 주고 있는데요. 이렇게 자연어 처리와 더불어 사용자 경험을 극대화하기 위해서는 사용자에게 편리한 UI는 필수이겠지요.



<그림 5> UI의 변천사


UI, User Interface란 시스템에 사용자가 접근하는 방식이라는 뜻입니다. 이러한 UI를 역사적으로 살펴보면 <그림 5>와 같은데요. 1990년대 초 처음 PC가 보급되었을 때, 우리는 검은 화면에서 dir, copy 등의 명령어를 통해 시스템에 접속하였습니다. 이것을 CLI(Command Line Interface)라고 하죠. 이후 Windows, Mac 등의 OS가 나오면서 현재 우리가 쓰는 마우스를 활용하여 화면상의 아이콘을 클릭(Click)하여 수행하는 방식을 GUI(Graphic User Interface)라고 합니다. 그리고 한 단계 더 나아가 영화처럼 사용자가 현재의 상황에서 가장 편한 방법으로 자연스럽게 시스템을 이용할 수 있는 UI를 NUI(Natural User Interface)라고 하는데요. 이러한 NUI는 아이콘-마우스-클릭으로 단순했던 GUI와는 달리 사용자의 행동에 따라 제스처 인식, 음성 인식, 이미지 인식, 텍스트 인식, 근육 인식 등을 다양하게 수행하며 디스플레이 측면에서도 홀로그램 디스플레이, 증강현실, 헤드업 디스플레이 등이 있습니다. 즉, 사용자가 어떠한 목적과 상황에서 각각 시스템에 접근하고 이용할 것인지를 고려하여 다양한 UI가 선택된다고 볼 수 있죠.


단순히 영화 속 볼거리로 보이곤 하는 이러한 UI는 놀랍게도 실제로 상당히 비슷한 상태로 개발되어 구현되고 있습니다. 인터페이스 디자이너 John Underkoffer의 2010년 강연을 통해 현재, 그리고 미래 우리가 느끼는 UI가 어떻게 바뀔지 맛보실 수 있답니다. ( -> John Underkoffler 미래형 UI 동영상 보기 클릭! )



<그림 6> 자비스에서 다른 시스템과 연계하여 명령을 수행하는 장면


 


다시 돌아가, 자비스는 기본적으로 토니 스타크의 일정관리와 수트나 원소에 대한 연구를 수행하는데 있어 각종 시뮬레이션/분석을 보조하며, 정보를 찾아주고, 수트 사용상의 적절한 위치나 무기를 추천해 주는 역할을 하는데요. 이러한 모든 역할을 자비스라는 시스템이 홀로 수행하는 걸까요? 자비스가 이 모든 것을 수행하려면 전 세계의 정보를 가진 대용량 DB와 시뮬레이터를 보유하고 있으며, 일정관리 등 기본적인 오피스 툴도 가지고 있어야 합니다. 심지어 R&D를 위한 SW와 분석 Tool도 가지고 있어야 하는데요. 물론 그렇게 보유하고 구현될 수도 있겠지만, 현실에서는 어려운 면이 있습니다. 그럼 어떻게 이것이 가능했을까요?







위의 장면(<그림 6> 참고)에서 볼 수 있듯이 자비스는 모든 정보와 툴을 가지고 있는 시스템이기보다는, 내외부의 다양한 시스템을 연결해 주는 중간관리자 시스템입니다. 즉, 토니 스타크는 자비스라는 시스템에 모든 것을 명령하지만, 실제로는 자비스를 통한 다른 시스템에서 처리가 되고, 그 결과가 다시 자비스를 통해 사용자에게 전달되는 것이죠. 도식화해 보면 아래와 같습니다. 



이 과정은 단순한 시스템간의 연계로는 수행되지 않는데요. 즉, 스마트 에이전트는 사용자의 의도상에서 ① 접근해야 할 시스템을 선별하고, ② 그 시스템에 연결되어야 하며, ③ 해당 시스템에 적합한 명령을 내리고, ④ 수행결과를 받아서 적절하게 사용자에게 알려야 합니다. 이렇게 다른 시스템과 연계하여 ‘수행’하는 기술이 구현될 때 자비스처럼 진정한 Personal Agent로서의 역할을 다할 수 있게 되는 거죠.


 


지금까지 영화 ‘아이언맨’을 통해 스마트 에이전트(Smart Agent)에 필요한 3가지 기술, 자연어 처리, NUI, 시스템 연계/수행 기술을 알아봤는데요. 스마트 에이전트의 기술은 산업 분야별로, 활용 목적 별로 상당한 차이가 존재할 것으로 보입니다.


현재 스마트 에이전트(Smart Agent) 각 기술의 발전은 진행형입니다. 점점 시스템의 복잡도가 증가하고, 활용하고 이해해야 하는 기능이 늘어날수록 사용자는 시스템 이용에 불편함을 느끼게 될 텐데요. 이러한 사용자의 불편함은 스마트 에이전트 관련 기술의 혁신을 가속화시킬 것입니다. 또한, 사용자는 언제나 더 이용하기 편한 시스템을 원하고, 이러한 동인은 언젠가 스마트 에이전트(Smart Agent)의 기술을 완성시킬 것입니다.


더불어 스마트 에이전트의 기술 전망에서 놓치지 말아야 할 점이 하나 있는데요. 그것은 스마트 에이전트(Smart Agent)가 사람과 다양한 시스템을 연결해 주는 중재자/통역자라는 것입니다. 이러한 중재/통역을 위해서는 어떠한 역량이 필요할까요? 현실에서 이러한 역할을 하고 있는 외교관을 보면 영어-한국어 양쪽을 명확히 알고 구사할 수 있어야 하는데요. 단순히 영한사전으로 해결되는 것이 아닙니다. 스마트 에이전트의 경우에도 이와 같습니다. 스마트 에이전트를 구현하기 위해서는 사람의 행동과 이용 방식을 이해함과 동시에 다양한 시스템 각각의 Transaction, 수행 명령을 정확하게 알고 있어야 합니다.


과연 사람과 시스템 양쪽의 내용을 명확히 인식하고 구현을 가능하게 하는 기업은 어디일까요? 자연어 처리 업체? NUI 업체? 시스템을 연계/구현해 왔던 SI 업체? 스마트 에이전트의 기술 구현을 누가 완성할지에 대한 질문은 Open Question으로 마지막에 남겨둡니다. 



* 자료 사진 : 아이언맨의 영화화면은 자료에 대한 이해용도로만 사용되었습니다. http://www.ironman3.co.kr/


글 ㅣ  송원진 책임 컨설턴트 ㅣ LG CNS 엔트루컨설팅사업부문



Posted by IT로 만드는 새로운 미래를 열어갑니다 LG CNS

댓글을 달아 주세요

위로