IT Insight

자동차의 '눈'은 어디까지 볼까?

2020. 11. 4. 09:30

운전에서 인간을 제외하는 것만으로도 시간과 비용 효율의 큰 개선을 기대할 수 있다는 점에서 자율주행은 미래 자동차 산업을 바꿀 기술로 불립니다. 그래서 기업들은 자율주행의 핵심인 '컴퓨터 비전(Computer Vision)'의 발전에 힘을 쏟고 있습니다.


미국의 전기차 제조사인 테슬라(Tesla)는 컴퓨터 비전을 활용한 카메라에 의존하는 것으로 알려져 있습니다. 차량에 설치된 8대의 카메라가 주변 도로, 물체 등 환경을 감지하는 것입니다. 컴퓨터 비전은 인간의 시각을 모방하는 인공지능(AI) 분야로서 테슬라는 우수한 딥러닝 알고리즘으로 컴퓨터 비전 기반 자율주행 기술을 개발합니다.


l 컴퓨터 비전을 통한 운전자 모니터링 (출처: 아이사이트 홈페이지)


이처럼 컴퓨터 비전은 어떻게 발전하느냐에 따라서 인간의 시각에 근접할 수도 또는 뛰어넘을 수도 있습니다. 그렇다면 컴퓨터 비전은 자동차에 있어서 자율주행에만 필요할까요? 많은 분야에서 자동차를 변화시키고 있는 기술이 컴퓨터 비전입니다.


뉴욕타임스에 따르면, 하루 평균 8만 명의 미국 운전자가 심각한 교통사고로 보험사에 전화합니다. 그리고 가장 많은 질문 중 하나가 '견적을 받고서 차량을 수리한 후 다시 운용하기까지 얼마나 걸리느냐?'입니다. 더 많은 사고를 처리하려면 보험사는 이 질문에 빠르게 답변할 필요가 있었습니다. 그래서 컴퓨터 비전을 도입하기 시작했고, 2014년 설립된 런던 기반 인슈어테크(Insuretech) 스타트업 '트렉터블(Tractable)'은 유럽 및 아시아의 주요 보험사들에 AI를 제공하는 선구자가 되었습니다.


트렉터블이 개발한 컴퓨터 비전 사고 감정 시스템은 자동차 사고와 수리에 관한 수백만 개의 실제 영상을 학습해 자동차 손상을 이해하고, 평가합니다. 며칠, 또는 몇 주의 긴 시간이 아닌 단 몇 분 만에 피해를 평가하고, 견적에 대한 추정치를 내놓습니다.


하지만 트렉터블의 AI 알고리즘은 일반적인 컴퓨터 비전을 활용하는 방식과 차이가 있습니다. 예컨대, 고양이를 구분하는 알고리즘을 만들려면, 많은 고양이 사진을 컴퓨터가 학습하게 합니다. 그리고는 학습한 것과 비슷한 형태를 고양이로 인식해 구분합니다.


l 트렉터블 컴퓨터 비전 알고리즘 (출처: 트렉터블 홈페이지)


반면, 트렉터블의 알고리즘은 자동차 일부분을 인식하게 해서 '앞 범퍼에 사고가 났다.'라고 추정하는 게 아닌 사고 차량에 가장 근접한 픽셀 패턴 데이터를 찾는 방식입니다. 컴퓨터는 사고 난 곳이 앞 범퍼인지 보닛인지 구분하지 못합니다. 대신 픽셀 패턴의 세밀한 부분까지 인식해 정확도가 높은 데이터 조합을 찾고, 이를 실제 사고 차량에 대입해 파손 정도를 파악합니다. 인간의 시각과는 다르지만, 인간이 할 수 없는 시각 능력을 특화해 보험사들이 빠르게 사고를 처리할 방안을 제시한 것입니다.


트렉터블은 지금까지 자사 알고리즘에 약 1,000만 장의 손상된 자동차 사진을 추가했습니다. 대부분 자동차 수리점에서 촬영하고 견적서와 함께 보험사에 제출된 것입니다. 다양한 사고와 손상 데이터를 학습할수록 알고리즘은 더 정확한 감정과 견적을 보여 줄 것이고, 보험사는 처리 속도를 높이고자 계속해서 데이터를 공급하게 될 겁니다. 컴퓨터 비전이 자동차 보험을 바꿔 놓고 있는 것이죠.


컴퓨터의 눈은 자동차 실내도 보기 시작했습니다. 2005년 설립된 '아이사이트 테크놀로지(Eyesight Technologies)'는 실내 운전자를 추적하는 딥러닝 기반 컴퓨터 비전 센서를 개발하는 곳입니다. 크게 드라이버 센스(Driver Sense), 캐빈 센스(Cabin Sense), 플릿 센스(Fleet Sense)로 구분합니다.


드라이버 센스는 운전자를 모니터링하기 위한 것입니다. 운전자가 졸린 상태인지, 전방을 주의 깊게 보고 있는지, 길이 아닌 다른 걸 보고 있는지 등 운전자에게 초점을 맞춰서 운전 경험을 향상할 수 있도록 돕는 게 목표입니다.


캐빈 센스는 자동차 실내 전반을 모니터링합니다. 승객 수, 승객 인식, 자세 및 안전벨트 분석, 물체 감지 등 요소를 분석해 승객 안전을 높이고자 합니다. 예를 들어 아기가 유아용 카시트에 고정되지 않은 채 탑승했다면 센서가 경고해 차량 환경을 조정하도록 유도합니다. 마지막으로 플릿 센스는 운전자의 피로도를 추적합니다.


드라이버 센스가 운전자의 전체 모습을 감지한다면, 플릿 센스는 운전자의 머리 위치, 눈꺼풀, 눈 등 얼굴 쪽을 자세히 추적해 실시간으로 평가합니다. 이 솔루션을 활용하면 피로도를 파악하고, 흡연이나 부주의한 행동을 감지해 경고할 수 있고, 운전자 인식을 통해 누가 운전하는지도 알 수 있습니다.


l 아이사이트 테크놀로지 캐빈 센스 (출처: 아이사이트 홈페이지)


아이사이트 테크놀로지의 기술은 여러 분야에서 활용할 수 있습니다. 자동차 렌트, 운수업 등 영업용 차량에 적용하면 운전자가 사고를 내거나 부적절한 행동을 했을 때 모니터링한 내용을 토대로 보험 처리할 수 있겠죠. 또는 직원이 업무 외 다른 행동을 하는지 감시해 평가에 반영할 수도 있을 겁니다. 주행 보조 장치와 연결할 수도 있습니다. 운전자가 운전 중 졸고 있다면, 주행 보조 장치를 자동으로 실행해 차선 이탈을 방지하고, 주변 상황에 맞춰서 제동하는 거로 사고를 막을 수 있습니다.


이를 위해 아이사이트 테크놀로지는 2개 층으로 구축한 컴퓨터 비전 알고리즘을 개발했습니다. 첫 번째 계층은 드라이버와 관련한 실시간 시각 데이터를 추적합니다. 계속 변하는 운전자나 동승자의 움직임을 감지하는 거죠.


두 번째 계층은 첫 번째 계층이 감지한 데이터를 분석해 현재 운전자의 상태를 파악하는 것입니다. 쉽게 설명하면, 운전 중 피로가 누적되는 과정을 첫 번째 계층이 계속 추적하다가 실제 졸음에 도달할 가능성이 커진다는 걸 두 번째 계층이 분석한다는 겁니다. 그래서 운전자가 스스로 피로를 깨닫지 못해서 졸음으로 이어지더라도 알고리즘은 이미 졸음 초기부터 감지하고 있기에 앞선 반응으로 사고를 예방하게 됩니다.


분야에 특화한 2개의 눈을 합침으로써 데이터 수집과 데이터 분석을 동시에 하는, 인간을 뛰어넘은 시각 능력을 자동차에 부여할 수 있게 되었습니다.


이런 컴퓨터 비전의 발전을 놓고 보면, 컴퓨터의 눈과 인간의 눈을 합칠 수 없느냐는 질문을 던지게 됩니다. 한쪽 눈이 다른 한쪽 눈을 보조하는 개념이라면, 인간의 눈을 보조해 도움을 준다는 개념으로 이어지는 건 마땅한 일이겠죠.


'엔비직스(Envisics)'는 컴퓨터 비전 업체이자 증강현실(AR; Augmented Reality) 업체입니다. 제너럴 모터스(GM), 재규어 랜드로버, 현대 모비스 등 업체와 제휴해 차량용 홀로그램 헤드 업 디스플레이(HUD) 공급을 목표로 합니다.


l 엔비직스 다이내믹 홀로그래피 플랫폼 (출처: 엔비직스 홈페이지)


HUD는 자동차 시장에서 일반적인 기술이 되었지만, 주로 시각 정보를 표시할 장치로 사용되며, 시각 능력을 보조하는 수단으로는 부족합니다. 엔비직스는 컴퓨터 비전 알고리즘을 도입해 문제를 해결하겠다고 밝혔습니다. 회사는 '우리 기술은 인간 운전자를 대체하는 게 아니라 운전을 지원하는 것이며, 궁극적으로 자율주행 기술이 도입될 때 더 재미있는 역할을 하게 될 것'이라고 말합니다.


엔비직스의 다이내믹 홀로그래피 플랫폼(Dynamic Holography Platform)은 실시간 데이터를 HUD에 오버레이로 정보를 표시하는 AR을 제공합니다. 알고리즘은 2.5m 이내 근거리와 20~100m 이내 원거리, 최대 3차선까지 감지할 수 있습니다. 도로의 모양, 지나가는 사람, 표지판, 기타 물체 등 데이터를 인식해 AR로 HUD에 표시되어 운전자가 인지하도록 돕습니다. 컴퓨터가 받아들인 시각 정보를 인간이 활용할 수 있게 정제해 시각 능력에 통합하는 것이죠.



인간의 시각 능력은 한계가 뚜렷합니다. 가로등이 부족하거나 폭우가 쏟아지는 등 시야가 차단되면 한정적인 정보만 받아들이고, 그만큼 운전 능력도 상실합니다. 운전자는 운전에 필요한 정보의 약 80~90%를 눈을 통해 얻기 때문입니다.


컴퓨터의 눈은 어둡거나 비가 많이 오더라도 충분한 정보를 수집할 수 있습니다. 잘 보이지 않는 도로 대신에 AR로 차선을 만들거나 앞차와의 간격을 표시해 안전거리 확보를 도울 수 있죠. 나아가서는 자율주행 시 차량이 어떤 의도를 가졌으며, 이후 무엇을 할 건지 전달하는 인터페이스도 겸할 수 있습니다. 인간이 자동차의 움직임을 시각 정보로 예상함으로써 자율주행 시스템에 대한 안정감을 얻게 됩니다.


재규어 랜드로버는 2023년, 현대 모비스는 2025년을 목표로 엔비직스의 기술을 자동차에 탑재할 계획입니다. 곧 컴퓨터가 바라보는 도로를 인간이 함께 공유하는 지점에 가까워질 겁니다.


컴퓨터 비전은 인간과 다른 시각 능력을 부여하거나 각기 다른 능력으로 새로운 시각을 만들고, 인간의 시각 한계를 보조하는 기술입니다. 이로써 자율주행만 아니라 컴퓨터의 눈이 필요한 여러 분야에서 활용되며, 자율주행 단계에서도 인간을 보조하는 역할을 계속 수행하게 될 것입니다.


글 l 맥갤러리 l IT 칼럼리스트


* 해당 콘텐츠는 저작권법에 의해 보호받는 저작물로 LG CNS 블로그에 저작권이 있습니다.

* 해당 콘텐츠는 사전 동의없이 2차 가공 및 영리적인 이용을 금하고 있습니다.



Posted by IT로 만드는 새로운 미래를 열어갑니다 LG CNS

댓글을 달아 주세요

위로