IT Life

'감성 컴퓨팅(Affective Computing)', 인간의 마음을 품다!

2015. 11. 18. 09:42

안녕하세요? LG CNS 대학생 기자단 김종운입니다.


이제 도시 곳곳 가로수에서 낙엽이 떨어지고, 깊은 가을을 느낄 수 있는 시기가 되었습니다. 가을은 예로부터 감성이 풍부해지는 대표적인 계절로 손꼽히고 있는데요. 이러한 감성은 지금까지 사람이 가진 고유한 것으로 여겨져 왔습니다. 그리고, 이를 기계가 대체하는 것은 불가능하다고 생각해 왔죠.  


그런데 최근 영화 속에서 인공 지능 컴퓨터가 등장하여 사람의 역할을 대신하고 있는데요. 머지않아 우리의 현실에서도 사람의 감정 및 생각을 분석하는 기계가 등장할 것이라고 합니다. 오늘은 인간의 감성까지 인지하는 기술, '감성 컴퓨팅(Affective Computing)'에 대해 알아보겠습니다.  


‘감성 컴퓨팅(Affective Computing)’이란, 말 그대로 인간 감성의 인지•해석•설계와 관련된 인공 지능을 개발하고 연구하는 것을 말합니다. 컴퓨터와 인간이 완벽한 대화를 나눌 수 있는 시대가 도래한다면 인간과 기계를 구분하는 것 자체가 무의미해질 텐데요. 더 나아가 인간의 지능을 보조하거나 대신하는 모습까지도 볼 수 있을 것입니다.   


감각을 컴퓨터로 계산하는 것은 1950년대에 사이버네틱스(Cybernetics)에서 다루기 시작했는데요. 이처럼 인간의 감각이나 감성에 대해서 연구하는 것은 예전부터 주된 관심사였습니다. 특히 감성 컴퓨팅에 대한 개념은 미국 MIT(메사추세츠 공과 대학교)의 로사린드 피카드(Rosalind Picard) 교수의 저서 ‘어펙티브 컴퓨팅(Affective Computing)’에서 소개된 뒤, 후속 연구가 이어졌습니다. 


사실 감성 컴퓨팅보다는 우리에게 익숙한 인공 지능(Artificial Intelligence)이라는 용어가 훨씬 더 넓은 분야를 포함하는데요. 따라서 감성 컴퓨팅의 발전은 인공 지능의 발전과 함께했다고 해도 과언이 아닙니다. 인간의 감정이라는 미묘한 변화를 연구하는 분야이기 때문에 작은 변화도 인식할 수 있는 센서의 개발을 통해 발전해 나가는 중입니다. 


그럼 여기에서 동영상 하나를 살펴볼까요?


<사람의 표정 변화를 통해 변하는 그림>


이 동영상은 2005년 영국의 배쓰 대학(Bath University)에서 진행한 프로젝트입니다. 인간의 순간순간 표정 변화를 통해 감정을 인식해서 표현하는 형태를 보여 주고 있죠. 동영상을 보시면 화난 사람의 표정이 드러날수록 그림은 어둡고 붉은 색을 띠게 되는데요. 반면 행복한 표정을 보여 주면 그림 역시 밝아지는 것을 볼 수 있습니다. 


또한 최근에는 헬스케어 분야에서 감성 컴퓨팅 사례도 두드러지게 나타나고 있습니다. 주로 정신•감정적인 건강에 대한 부분들을 감성 컴퓨팅이 다루고 있는데요. 현재는 스마트폰이나 센서를 통해 감정 상태를 측정하는 수준에 머물고 있지만 곧 사람의 감성을 가진 인공 지능과 대화할 수 있는 수준까지 도달할 것이라고 기대하고 있습니다.   


미국 MIT 미디어랩의 '신씨아 브리질(Cynthia Breazeal)'교수는 소셜 로봇 연구로 유명한데요. 인간과 로봇이 서로 감정적으로 교감하고 대화할 수 있다는 것을 보여주는데 큰 공헌을 했습니다. 여기에서 탄생한 감성 로봇의 선두 주자인 '지보(Jibo)'는 2016년 4월 출시될 예정이라고 합니다. 그리고, 그 뒤를 이어 출시될 로봇들도 함께 주목을 받고 있습니다. 


인간의 감각 중에서 가장 많은 부분을 차지하는 것은 시각인데요. 인간은 어떤 행동을 취할 때마다 미묘한 표정의 변화가 일어납니다. 그래서 인간의 시각을 모티브로 하여 만든 '시각 센서(Charge-Coupled Device, CCD) 카메라'가 얼굴(표정) 인식 기술에 적극적으로 도입되고 있습니다. 


<귀여운 외모의 가정용 로봇 ‘버디(Buddy)’>


프랑스의 로봇 스타트업인 ‘블루 프로그 로보틱스(Blue Frog Robotics)’에서 개발한 소셜 로봇 ‘버디(Buddy)’는 위 영상처럼 매우 귀여운 모습을 하고 있는데요. 집 안에 있는 제품들과 네트워크로 연결되어 허브(Hub)와 같은 역할을 수행합니다. 


버디는 가족 구성원의 얼굴을 구분하고, 각 구성원마다 다른 필요한 점을 인지하여 제공해 주는데요. 예를 들어 집안 일을 하고 있는 어머니에게는 요리 레시피를 제공하거나 전화를 대신 받아주는 역할을 합니다. 아이에게는 탑재된 교육 기능을 제공하고, 할아버지나 할머니에게는 약 복용 시간을 알려 주거나, 쓰러졌을 때 이를 인지하는 기능을 합니다. 


이러한 버디는 '인디고고(www.indiegogo.com)'에서 선주문 형식으로 649달러(한화 약 73만 9천원)에 주문할 수 있으며, 약 2달이 지난 현재까지 1,050명의 사람들로부터 약 61만 7천 달러(한화 약 7억 245만원)를 유치했습니다.


우리의 일상 생활에 도움을 주는 휴머노이드 로봇의 효시라고 할 수 있는 ‘아시모(ASIMO)’는 2000년에 처음 공개되었는데요. 공개 당시 달리지는 못하지만 30분 정도 연속 동작을 하는 모습을 보고 사람들은 놀라움을 금치 못했습니다.  


아시모는 2005년 '아시모 2', 2007년 '아시모 3'의 형태로 나날이 진화해 왔습니다. 최근 2015 서울 모터쇼에서 공개된 '올 뉴 아시모(ALL NEW ASIMO)'는 배터리가 다 되면 스스로 충전을 하고, 걷기•뛰기•한 발 뛰기•춤추기 등이 가능한 신체 구조로 업그레이드 되었는데요. 


뿐만 아니라 로봇끼리의 협업이 가능해졌고, 사람에 맞춰 행동하는 기능도 강화되었습니다. 명령이 없어도 자율적으로 행동하고 주변 환경도 감지하게 되었습니다.   


주행 도우미 로봇 '아이다(Aida)'는 Affective, Intelligent Driving Agenda’의 약자로 미국 MIT의 미디어랩과 폭스바겐(Volkswagen) 전자 연구소의 합작 프로젝트 결과물인데요. 기존의 내비게이션 개념의 아니라 풍부한 표정으로 운전자와의 교감을 시도하는 내비게이터(Navigator)를 표방하고 있습니다. 자주 가는 경로를 기억하는 것은 물론이고 연료가 떨어졌을 때 등록된 주유소의 위치를 안내하는 역할까지 할 수 있죠. 


<귀여운 모습의 감성 지능형 주행 도우미 로봇, ‘Aida’>



증강현실을 활용한 차세대 내비게이션 기술인 'Adia 2.0'은 대시보드(Dashboard)에 3D HUD(Head-up Display)를 적용해, 보다 입체적인 형태로 운전자를 도와줄 수 있는데요. 졸음 운전을 할 경우, 잠을 깨워 주기도 합니다. 'Adia'와 함께라면 혼자 가는 길이라도 마치 누군가와 함께 가는 느낌이 들 것 같습니다. 


과학 기술의 발전은 많은 사람들에게 편리하고 놀라운 서비스를 제공하지만, 단점을 동반하기도 하는데요. 사람의 음성이나 표정 등은 각 개인의 고유한 정보라고 할 수 있을 만큼 다양하고 독특합니다. 그런데 이 정보를 분석해 단지 이득을 취하기 위해서 사용한다면 감성 컴퓨팅이 추구하고자 했던 목표는 퇴색이 될 수 밖에 없을 것 같습니다.  


따라서 기업에서도 서비스를 개발하는 단계부터 부정적인 점을 미리 고려하고, 동시에 기술이 오용되는 것을 막기 위해 제도적 측면의 보완에 신경 써야 할 것입니다. 


사람의 마음을 꿰뚫는다는 것은 상대방이 자신을 좋지 않게 생각하는 측면까지 알 수 있다는 의미이기도 하죠. 이것은 물론 기분이 상하는 일이지만 한편으로는 이를 계기로 자신의 단점을 깨닫는 계기가 될 수도 있습니다. 


감성 컴퓨팅 역시 '양날의 검'이라고 할 수 있는 기술이지만 좋은 방향으로 발전시키면 우리에게 꼭 필요한 기술이 되지 않을까요? 인간과 기계가 따뜻하게 손을 맞잡고 살아가는 그 날이 오기를 기대해 봅니다.


[관련 글] 인간과 교감하는 소셜 로봇 (http://blog.lgcns.com/825)




Posted by IT로 만드는 새로운 미래를 열어갑니다 LG CNS

댓글을 달아 주세요

위로