IT Insight

인공지능 시대를 여는 열쇠, GPU는 무엇일까?

2017.06.12 09:30

가히 인공지능(AI) 시대입니다. 머신 러닝(Machine Learning)이나 딥 러닝(Deep Learning) 등의 관련 용어도 널리 알려졌고, 기업들도 AI 제품을 상용화하여 설명하기도 수월해졌습니다. 물론, 대중성만으로 AI 시대가 가까워졌다는 것은 아닙니다. AI 시대가 빠르게 다가올 수 있었던 것은 기술의 역할이 컸는데요. 바로 'GPU(Graphics Processing Unit)'입니다. 


지난달, 엔비디아(NVIDIA)는 GPU 기술 콘퍼런스(GPU Technology Conference ; GTC)에서 차기 아키텍처인 '볼타(Volta)'를 공개했습니다. 볼타는 데이터센터용으로 개발한 테슬라 V100 GPU에 먼저 적용되었는데요. 테슬라 V100은 1,455MHz로 작동하는 210억 개의 트랜지스터, 5,120개의 CUDA 코어를 갖췄으며, 기존 파스칼 아키텍처 GPU인 테슬라 P100보다 12배 빠른 속도를 자랑합니다. 


또한, 머신 러닝을 강화할 640개의 텐서 코어(Tensor core)와 2세대 NV 링크 기술을 추가했습니다. 현재 존재하는 GPU 중 가장 빠르고, 강력합니다.


l NVIDIA의 볼타(출처: http://www.nvidia.com)


엔비디아는 수년 동안 AI 기술에 매진했습니다. 실질적인 성과가 나오기까지 꽤 많은 시간이 필요했지만, AI가 미래 성장 동력으로 점쳐지는 지점에서 GPU의 장점이 강조되기 시작했습니다. 엔비디아 CEO 젠슨 황(Jensen Huang)은 볼타를 발표하면서 '볼타가 AI의 새로운 원동력이 될 것'이라고 말했습니다. AI 분야에서 중요해진 GPU의 역할을 인지할 수 있는 부분입니다. 그래서 당연한 듯이 가장 강력한 성능을 가진 테슬라 V100에 관심이 모이고 있습니다.


그럼 인공지능 시대에 왜 GPU가 중요해졌을까요? 너도나도 AI이니 GPU 업계도 무작정 AI를 강조하는 것처럼 보이기도 합니다. 그러나 CPU와 다른 근본적인 구조가 GPU의 자리를 공고히 했습니다.


GPU는 컴퓨터 그래픽을 빠른 속도로 처리하기 위해 만들어졌습니다. 복잡한 3D 그래픽을 처리하는 데 필요한 연산 능력, 특정된 많은 계산을 동시에 처리하는 목적으로 만들어진 탓에, 포괄적인 컴퓨팅을 처리하는 CPU와 달리 제어 영역을 빼버렸습니다. 또한, 빠른 연산 속도를 위해 병렬 처리 기술을 갖췄습니다.


CPU는 순차적으로 계산하는 직렬 처리 기술에 초점을 두었기에 높은 성능의 싱글 코어를 합쳤습니다. 그러나 GPU는 가속화가 목표이므로 CPU의 싱글 코어보다는 성능은 부족하지만, 병렬 처리에 용이한 소형 코어를 최대한 많이 집약함으로써 연산 속도를 비약적으로 높일 수 있었습니다.


머신 러닝은 주어진 데이터를 컴퓨터가 스스로 학습하는 방법입니다. 그리고 딥 러닝은 인공 신경망을 이용한 머신 러닝 기술의 하나죠. 인간의 두뇌가 수많은 데이터를 학습하고, 일정한 패턴을 발견하여 사물이나 상황을 구분하거나 처리하는 방법을 모방한 것입니다. 컴퓨터가 스스로 판단할 수 있도록 반복적인 학습이 필요한데요. 그러나 직렬 처리 방식의 CPU로는 대량의 반복 학습을 한꺼번에 처리하기에 느릴 수 밖에 없습니다.


무엇보다 몇 개의 코어로 구성된 CPU로 수천 개의 뉴런 연결을 모방한 인공 신경망을 구축하려면 높은 비용이 발생합니다. 과거 구글은 인공 신경망을 구축하고자 16,000개의 CPU 코어를 사용했죠. 반면, GPU는 병렬 처리 방식으로 대량 계산을 가속화하여 빠르게 처리할 수 있을 뿐만 아니라, 많은 코어를 집약했기 때문에 16대의 GPU 가속화 서버만으로도 구글보다 6.5배 확장한 인공 신경망을 구축할 수 있었습니다.


l CPU와 GPU 비교(출처: www.nvidia.com/object/what-is-gpu-computing.html)


GPU 기술이 발전하기 전에는 AI를 연구하고, 개발하는 건 보통의 회사가 일반적으로 시도할 수 있는 것이 아니었습니다. 그러나, GPU 기술의 발전으로 기업이나 연구자는 과거보다 훨씬 저렴한 가격과 나은 성능의 인공 신경망을 구축할 수 있게 되었고, 머신 러닝이 보편화되어 가고 있습니다.


AI 분야에서는 GPU가 처음 등장했을 때부터 GPU를 활용하기 시작했습니다. GPU의 등장 이후부터 병렬 처리를 통한 AI 기술 개발이 진행되었는데요. 세계적인 음성 인식 소프트웨어 회사이자 애플 시리(Siri)의 초기 엔진을 개발한 뉘앙스 커뮤니케이션(Nuance Communications)도 GPU 도입으로 성과를 낸 기업 중 하나입니다. 


뉘앙스는 수천, 수만 시간의 음성 데이터를 컴퓨터에 들려줌으로써 인공 신경망이 여러 단어를 인식하도록 학습시킵니다. 학습을 완료하면 이전에 학습한 음성과 새로 학습한 단어를 비교하여 음성을 인식합니다. 음성 인식률을 높이려면 음성 데이터를 반복 학습하는 속도가 관건이죠. 뉘앙스는 2009년부터 GPU를 활용했고, GPU 도입을 기점으로 음성 인식 기술은 이례적인 과도기를 맞이합니다.



이런 탓에 개인 소비자는 느끼기 어려웠지만, GPU와 AI는 10년 넘도록 반도체 업계의 최대 화두였습니다. 그도 그럴 것이 CPU 1위 기업인 인텔도 과거 GPU 개발을 시도한 적이 있었기 때문입니다. 엔비디아가 GPU 시장을 열면서 그래픽 칩셋 사업의 하나로 고성능 GPU를 개발하려 한 것이었죠. 그러나 2009년 GPU를 이용한 병렬 컴퓨팅 계획인 '라라비(Larrabee)'는 취소되었습니다. 


대신 라라비에서 떨어져 나온 코프로세서 제품군인 '제온 파이(Xeon Phi)'가 인텔의 병렬 처리 기술을 담당하게 되었습니다. 한동안 GPU가 잠식한 슈퍼컴퓨터 분야는 강력한 성능 덕분에 제온 파이가 차지하게 됩니다.


문제는 AI 기술을 보편화하면서 GPU의 역할이 더 중요해졌다는 겁니다. 예를 들면, 대세로 떠오른 가상 현실(VR)과 증강 현실(AR)도 AI 기술을 접목하여 사물이나 움직임, 주변 환경을 인식합니다. 인텔도 VR과 AR에 대응하는 CPU 전략을 가졌는데요. VR이나 AR 플랫폼이 제대로 작동하려면 인텔의 전략에도 고성능 GPU가 필요했습니다.


인텔은 '미래에 CPU와 GPU의 경계가 완전히 없어질 것'이라고 주장합니다. 실제 CPU는 GPU의 장점, GPU는 CPU의 장점을 채용하고 있고, AMD는 아예 'APU(Accelerated Processing Unit)'라는 통합 프로세서의 별도 명칭을 만들기도 했습니다. 그러나 AI가 처리해야 할 부분이 기하급수적으로 증가하면서 CPU보다 대량 정보의 연산 속도에 더 중점 둔 GPU의 도입이 AI 분야에서 늘고 있습니다.


지난 3월, 페이스북은 차세대 인공지능 서버인 '빅 베이슨(Big Basin)'을 공개했습니다. 빅 베이슨은 8개의 엔비디아 테슬라 P100 GPU를 탑재했는데요. GPU로 구성된 서버이고, 모듈화에 중점을 두었습니다. 그래서 서버 박스에는 CPU가 없으며, 페이스북의 오픈소스 CPU 서버 플랫폼인 티오가 패스(Tioga Pass)와 호환됩니다. 


페이스북은 하루에도 수많은 천문학적인 규모의 사진과 동영상, 메시지를 분석해야 합니다. 특히 AR을 도입하면서 AI가 동시에 많은 양의 사진, 동영상을 인식해야 하게 되었는데, 서버 과부하를 줄이고, 프로세싱 요구에 대응하고자 새로운 GPU 서버를 개발한 것입니다.


l 페이스북 GPU 서버 ‘빅 베이슨’

(출처: https://code.facebook.com/posts/1835166200089399/introducing-big-basin-our-next-generation-ai-hardware/)


마찬가지로 중국의 인터넷 기업 바이두(Baidu)도 지난 4월에 GPU 컴퓨팅을 자사 클라우드 플랫폼에 도입하기로 했습니다. 엔비디아의 딥 러닝 플랫폼을 클라우드에 도입함으로써 기업 고객이 바이두의 클라우드 AI 서비스에 신속하게 접근할 수 있도록 지원하기 위해서입니다. 바이두는 이미 지난해에 자율 주행 플랫폼 개발에서도 엔비디아와 제휴한 상태인데요. GPU 컴퓨팅에 대한 충분한 신뢰가 있다는 방증이죠. 그 밖에 구글, IBM, 텐센트 같은 기업도 엔비디아의 딥 러닝 플랫폼을 도입하고 있습니다.


인텔은 급성장하는 GPU 컴퓨팅에 대응하기 위해서 지난해에 AI 소프트웨어 스타트업인 '너바나 시스템즈(Nervana Systems)'를 4억 달러에 인수했습니다. 그리고 신규 AI 사업부를 조직하고, AI 행사를 하는 등 쫓고 있습니다. 그러나 현재 AI 기술을 도입하려는 기업들은 미래의 궁극적인 효율보다 도입 자체에 목적을 두고 있으며, 연산 처리 속도를 최대한 끌어내려는 GPU의 경향이라면 한동안 고성능 GPU에 대한 수요는 계속 증가할 가능성이 큽니다.


엔비디아는 지난 5월 개최된 GPU 테크놀로지 컨퍼런스(GTC)에서 '메트로폴리스(Metropolis)'라는 동영상 분석 플랫폼을 공개했습니다. 메트로폴리스는 공공 안전, 교통 관리, 자원 최적화와 관련한 앱에 딥 러닝 기술을 적용하여 도시 곳곳에 설치한 AI 카메라를 통해 전달하는 동영상을 분석하는 방법입니다. 주변의 주차 공간을 제안하거나 주차할 수 없는 공간에 주차한 차량을 발견하고, 절도 등 범죄를 예방하는 데에 활용할 계획입니다. 


엔비디아는 '2020년에는 AI 카메라가 전 세계 10억 개 이상 설치될 것'이라면서 도시 단위의 AI 컴퓨팅을 전망했습니다. 도시 안에서 벌어지는 수많은 움직임과 상황을 인지하고, 분석하여 해결하기까지 모든 과정에 GPU 컴퓨팅을 도입하겠다는 거죠. PC나 자동차, 드론 등 현재 GPU를 활용하는 작은 범위가 아닌 도시까지 확장한 범위가 GPU 컴퓨팅의 영역이 될 수 있다는 점에서 GPU와 GPU 기술과 결합한 AI의 미래를 단편적으로 짐작해볼 수 있습니다.


l GTC 기조연설

(출처: https://blogs.nvidia.com/blog/2017/05/10/live-jensen-huang-gpu-technology-conference-2017/)


사실 복잡한 얘기는 아닙니다. '연산 능력을 비약적으로 상승시킬 방법의 등장과 AI 기술의 발전이 맞물리면서 과거보다 기술이 더 빠르게 변화할 것이다.'라는 것이죠. 빠른 변화 속도만큼 GPU의 역할에 대한 중요도는 앞서 말씀 드린 바와 같이 앞으로 꾸준히 언급될 텐데요. 이러한 변화를 보면서 어떻게 변화하는지에 대한 실마리 정도는 간직하고 있어야 하지 않을까 싶습니다. GPU는 이미 흔히 얘기하는 4차 산업 혁명이라는 미래 산업의 열쇠가 되어버렸으니 말입니다.


글 | 맥갤러리 | IT칼럼니스트


* 해당 콘텐츠는 저작권법에 의하여 보호받는 저작물로 LG CNS 블로그에 저작권이 있습니다.

* 해당 콘텐츠는 사전 동의없이 2차 가공 및 영리적인 이용을 금하고 있습니다.



저작자 표시 비영리 변경 금지
신고
Posted by IT로 만드는 새로운 미래를 열어갑니다 LG CNS
위로