IT Insight

대화형 플랫폼의 미래, '다중 경험'이란 무엇인가?

2019. 11. 13. 09:30

지난달, 가트너는 2020년 기업들이 주목해야 할 10대 기술 동향 중 하나로 '다중 경험(Multiexperience)'을 꼽았습니다.


다중 경험이란, 증강현실(Augmented Reality; AR), 가상현실(Virtual Reality; VR), 웨어러블 컴퓨터(Wearable Computer), 멀티센서(MultiSensor)와 같은 기술로의 이동으로 인간이 기술을 인지하는 방식이 변화한 경험을 의미합니다.


l 가트너 - 다중 경험 (출처: 가트너)


가트너에 따르면, 전통적인 컴퓨터 인터페이스는 단일 상호작용에 초점을 두었습니다. 쉽게 말하면, 인간이 특정한 버튼을 눌렀을 때 그 버튼에 부여된 기능이 실행되는 식인 거죠. 이는 버튼이 어떤 역할을 할 것인지 인간이 알고 있어야만 제대로 상호작용할 수 있습니다.


수많은 버튼이 있는 기계를 올바르게 작동하려면 모든 버튼이 어떤 역할을 하는지 숙지해야만 합니다. 기술의 인지 수준에 따라서 상호작용 능력도 달라지는 겁니다. 반면, 다중 경험은 다양한 상호작용 모델을 통해서인지 차이와 상관없이 인간과 컴퓨터가 상호작용하는 데에 초점을 둡니다.


용어의 정의만 보면 '앰비언트 컴퓨팅(Ambient Computing)'을 떠올릴 수 있습니다. 구글의 구글 어시스턴트(Google Assistant), 아마존의 알렉사(Alexa), 애플의 시리(Siri) 등 음성 인터페이스는 스마트폰뿐만 아니라 스마트 스피커, 스마트 디스플레이를 비롯해 TV, 세탁기 등 집안 곳곳, 심지어 이동하는 공간인 자동차에도 탑재되고 있습니다. 어디서든 음성 인터페이스에 접근해서 상호작용하는 환경이 구축되고 있는 거죠. 인간이 음성으로 명령을 내리는 것만을 말하진 않습니다.


센서 기술로 주변 환경을 감지해서 상황을 전달하거나 마땅한 방법을 선택하도록 음성 인터페이스가 먼저 말을 걸기도 합니다. 이렇듯 단일 하드웨어에 일방적으로 명령하는 전통적인 컴퓨터 인터페이스가 아니라 서로 연결된 여러 하드웨어를 매개체로 항상 컴퓨터와 상호작용하는 개념을 앰비언트 컴퓨팅이라고 말합니다.


지난달, 구글은 연례 하드웨어 이벤트에서 앰비언트 컴퓨팅을 강조했습니다. 예컨대, 이벤트에서 발표한 이어버드인 픽셀 버즈(Pixel Buds)는 '적응형 사운드(Adaptive Sound)' 기술로 주변 소음에 따라서 재생하는 음악의 음량을 자동으로 조절합니다. 인간이 컴퓨터에 명령하기 전에 주변 환경을 감지해 상황에 맞춰 먼저 움직이는 거죠.


l 구 픽셀 버드 2 (출처: https://bit.ly/2NE6g0D)


구글의 하드웨어 책임자 릭 오스텔로(Rick Osterloh)는 '앰비언트 컴퓨팅에 대한 우리의 목표는 가정, 직장, 또는 이동 중이더라도 필요할 때에 일관된 단일 환경을 제공하는 것'이라면서 '서비스는 기기와 함께 작동하고, 유동적이어서 뒤로 사라진다.'라고 말했습니다.


과거 집에서 자동차로, 자동차에서 밖으로 이동을 반복하면서 음악을 듣는 건 많은 변화를 요구했습니다. 집에서 밖으로 나갈 땐 거치된 오디오 장치를 정지해야 하고, 자동차에 탑승하면 내장된 장치를 재생해야 했으며, 자동차에서 내리면 휴대용 장치를 다시 조작해야 했습니다.


그러나 현재는 기기들이 서비스로 연결되어 있다면, 집에서 듣던 재생 목록이 유지되어 음악이 자동차에서 이어지고, 내리면 이어버드는 자동차에서 듣던 음량과 주변 환경에 맞춰서 음악을 계속 들을 수 있게 돕습니다. 버튼을 누르거나 레버를 돌릴 필요가 없고, 혹여나 컴퓨터가 다음 행동을 예측하지 못했다면 손을 대지 않고도 음성 인터페이스로 상호작용합니다. 앰비언트 컴퓨팅이 실현되고 있는 것입니다.



고로 앰비언트 컴퓨팅의 핵심은 음성 인터페이스가 기반인 대화형 플랫폼에 있습니다. 대화형 플랫폼은 기본적으로 인공지능(AI) 기술을 포함하고 있으며, 자연어 인식, 컴퓨터 비전, 멀티센서 등 세부 기술들이 통합된 형태입니다. 딱히 음성으로 명령하지 않아도 작동하지만, 인간이 컴퓨터와 상호작용하는 통로로서 음성 인터페이스가 존재하는 겁니다. 그럼 왜 음성 인터페이스가 기반일까요?


전통적인 컴퓨터 인터페이스, 특히 그래픽 사용자 인터페이스(GUI)는 인간이 컴퓨터에 명령을 내리기 쉽도록 기능을 그래픽으로 표현했습니다. 인간이 컴퓨터를 이해하고, 일방적으로 명령하기 위해서 고안된 것이죠. 그래서 현대의 컴퓨터는 대부분 그래픽을 표시할 디스플레이를 요구합니다. 그런데 어디서든 컴퓨터와 상호작용하는 앰비언트 컴퓨팅을 실현하려면 디스플레이 표시를 줄이는 쪽으로 인터페이스가 발전해야 합니다.


이동하는 모든 공간에 디스플레이를 배치할 수 없는 노릇이니까요. 그런 탓에 괴리가 생깁니다. 기존 환경을 단숨에 앰비언트 컴퓨팅으로 전환할 수 없으니 인간은 여전히 그래픽을 통한 입력으로 컴퓨터와 상호작용하고, 디스플레이를 요구하게 됩니다. 더군다나 아직 컴퓨터는 인간의 모든 행동을 인식해서 상호작용을 제시할 만큼 발전하지도, 발전했더라도 인간이 주로 이동하는 넓은 범위를 충족하는 환경으로 바꾸는 데에 더 많은 시간이 필요합니다.


 다중 경험이 중요해진 이유


다중 경험은 그런 상황에서 등장한 개념입니다. 가트너 리서치 부사장 브라이언 버크(Brian Burke)는 '사람이 기술을 이해해야 한 모델에서 기술이 사람을 이해하는 모델로 변하고 있다.'라면서 '목적과 의도를 파악하는 건 인간의 몫에서 기계의 몫이 되었다.'라고 말했습니다. 그러니까 앰비언트 컴퓨팅을 실현하는 과정에서 컴퓨터가 목적과 의도를 이해하고, 이를 인간에게 전달하는 경험을 인터페이스로 구현한 게 다중 경험 모델이라는 것입니다.


l 브라이언 버크 (출처: https://gtnr.it/2CBINXA)


이미 익숙한 사례가 있습니다. 손목에 착용하는 웨어러블 기기인 스마트 워치는 메시지와 같은 알림이 발생하면 탑재된 탭틱 엔진(Taptic Engine)으로 진동을 만들어 촉각 피드백(Haptic Feedback)을 제공합니다. 진동의 횟수, 패턴, 강도에 따라서 알림의 종류나 중요도를 구분할 수 있죠. 이것은 웨어러블을 통한 다중 경험이라고 할 수 있습니다. 하지만 주변 환경과 결합한 것은 아니므로 앰비언트 컴퓨팅으로 나아갔다고 할 수는 없습니다.


조금 더 확장해봅시다. 예를 들어서 스마트 워치를 착용한 상태로 식당에서 식사합니다. 주문한 음식이 모두 나오면 연결된 계정으로 디지털 계산서가 전달됩니다. 식사 중 직접 결제하지 않았다면, 테이블이나 천장의 센서가 자리에서 일어난 것을 감지한 후 등록된 신용카드로 계산하고, 계산을 완료했다는 걸 스마트 워치의 촉각 피드백으로 알려줍니다. 여느 때와 다를 것 없이 식당을 이용하지만, 식당을 이용하는 내내 기기와 서비스는 움직이면서 인간이 무언가를 요구하기 전에 입출력해냅니다.


인간에게 전달하는 건 모든 과정이 완료되었다는 진동이 전부지만, 해당 진동에는 식당 이용에서 발생한 디지털 결제, 사물인터넷(IoT), 센서, 웨어러블 등 기술 경험이 함축해있습니다.


위에 예로 든 상황에서 이어버드를 착용한 상태였다면 촉각 피드백이 아닌 음성 인터페이스로 디지털 계산서의 전달과 결제 알림이 이뤄질 것입니다. 즉, 앞선 모든 과정이 같더라도 인간과 컴퓨터의 최종적인 접점에서 나타난 경험은 달라질 수 있겠죠. 전통적인 컴퓨터 인터페이스를 봅시다.


PC에서 재생 버튼을 누르더라도 스마트폰에서 음악이 흘러나오진 않습니다. 단일 상호작용입니다. 앰비언트 컴퓨팅에서의 음악 재생은 PC에서 재생한 음악이 이어버드를 착용하면 옮겨오고, PC를 종료하면 스마트폰으로 재생해 연속성을 잃지 않습니다. 음악 재생이라는 하나의 서비스가 PC, 이어버드, 스마트폰이라는 여러 하드웨어와 연결되어서 상호작용하는 것, 이러한 상호작용들이 바로 다중 경험으로 이어지는 것입니다.



여기서 가트너가 다중 경험을 주목할 기술 동향으로 꼽은 이유, 다중 경험이 대화형 플랫폼의 미래인 이유도 이해할 수 있습니다.


 다중 경험이 대화형 플랫폼의 미래로 뽑힌 이유는?


우선 앰비언트 컴퓨팅은 음성 인터페이스가 기반인 대화형 플랫폼을 중심으로 발전하고 있습니다. 단지 음성 인터페이스만 품었던 대화형 플랫폼은 여러 기기와 센서, 서비스가 결합하면서 다양한 방법으로 인간과 소통하게 변화했고, 음성 인터페이스는 대화형 플랫폼의 디지털 경험 중 하나가 되었습니다.


대화형 플랫폼이 발전할수록 음성 인터페이스만 아니라 다른 방법으로도 인간과 상호작용할 방법이 필요해질 테고, AR, VR, 웨어러블, 멀티센서와 같은 기술로 확산해 다중 경험으로 이어지게 되는 거죠.


결국, 인간은 대화형 플랫폼으로 음성만 아니라 탭틱 엔진의 촉각 피드백을 위시한 시선, 동작, 조명 등으로 컴퓨터와 소통하게 될 겁니다. '음악 재생해.'라고 명령하거나 손뼉을 치거나 버튼을 바라보는 모든 게 음악 재생을 위한 거라도 컴퓨터는 그 의도만 파악할 뿐 어떤 기기에서 어떻게 재생하는지 점점 감추게 되고, 이를 디자인하는 건 앰비언트 컴퓨팅의 실현에서 매우 중요한 과정입니다.



인터페이스 디자인에서 다중 경험을 어떻게 이해하느냐, 대화형 플랫폼의 상호작용 방식과 사용자 경험을 얼마나 바꾸냐에 따라서 앰비언트 컴퓨팅의 완성도는 달라집니다. 구글처럼 앰비언트 컴퓨팅을 내세우기 시작한 기업이라면 다중 경험은 가장 중요한 기술 동향일 수밖에 없습니다.


컴퓨터는 우리 삶에 깊게 파고드는 만큼 점점 보이지 않게 변할 겁니다. 인간이 느끼는 건 컴퓨터가 전달한 경험이 전부겠죠. 그러므로 해당 경험을 어떻게 전달하느냐는 다중 경험 동향의 발달이 곧 사라진 컴퓨터의 규모를 의미하게 될 것입니다.


글 l 맥갤러리 l IT 칼럼리스트


* 해당 콘텐츠는 저작권법에 의하여 보호받는 저작물로 LG CNS 블로그에 저작권이 있습니다.

* 해당 콘텐츠는 사전 동의없이 2차 가공 및 영리적인 이용을 금하고 있습니다.



Posted by IT로 만드는 새로운 미래를 열어갑니다 LG CNS

댓글을 달아 주세요

위로