[AI] 인공지능 역사, 그리고 GPU 기반 딥 러닝
[AI] 인공지능 역사, 그리고 GPU 기반 딥 러닝
  • 김건우 기자
  • 승인 2016.03.14 17:52
  • 댓글 0
이 기사를 공유합니다

인간과 동등한 96% 이상 이미지 인식률 도달…알파고에 탑재된 176개 GPU, 빠른 연산 속도에 전력 소모도 낮아

[아이티비즈] 구글 딥마인드의 인공지능 알파고와 이세돌 9단의 세기의 맞대결이 성사된 이후, 일부 IT 전문가를 제외한 바둑 전문가 및 대부분의 일반인들은 이세돌 9단의 승리를 예측한 바 있다.

체스, 장기 등과 달리 경우의 수가 10의 360제곱에 달할 정도로 방대한 바둑은 아무리 인공지능이라 하더라도 그 국면을 모두 계산해 내기가 불가능할 것으로 여겨졌기 때문이다.

그러나 알파고는 이러한 예상을 뒤엎고 최강의 프로기사에게 연이어 세 번의 승리를 거머쥐며 바둑계를 충격에 빠트렸다. 무엇보다 지난해 10월 유럽 바둑 챔피언 판후이 2단과의 대국이 진행된 지 불과 5개월 만에 몰라볼 정도로 빠른 발전을 이뤄내 그 경이로운 성장 속도에 많은 이들이 주목하고 있다.

◇ 인간처럼 생각하는 기계, 인공지능 등장

알파고의 학습능력을 설명하기 전에 우선, 인공지능(AI; Artificial Intelligence)의 발달 과정을 한번 되짚을 필요가 있다. 인공지능(AI)라는 용어는 1956년 미국 다트머스 대학의 존 매카시 교수가 개최한 다트머스 회의를 통해 처음으로 사용되기 시작했다.

당시 인공지능 연구의 핵심은 추론과 탐색이었다. 마치 인간처럼 생각하고 문제를 풀 수 있는 인공지능을 구현하려는 연구는 1970년대까지 활발히 진행되었지만, 단순 문제 풀이뿐 아니라 좀더 복잡한 문제까지 풀기 위한 수준까지 도달하지 못하고 결국 인공지능 연구 붐은 급격한 빙하기를 맞이하게 된다.

◇ 스스로 학습하는 인공지능, 빅데이터와 머신러닝

인공지능 연구는 1980년대 컴퓨터에 지식과 정보를 학습시키는 연구가 이뤄지며 다시 한번 급물살을 타게 되지만, 그 데이터를 체계적으로 관리하고 인공지능에 적용하는데 있어 한계가 노출되며 1990년대 초까지 별다른 성과를 얻지 못했다.

그러나 1990대 후반, 인터넷의 등장과 함께 검색 엔진 등을 통해 이전과는 비교도 할 수 없이 방대한 데이터를 수집할 수 있게 되면서 인공지능 연구는 또 한번 중흥기를 맞이하게 된다. 수많은 빅데이터를 분석하여 인공지능 시스템 스스로 학습하는 이른바 머신러닝(Machine Learning)의 형태로 진화하게 된 것이다.

◇ 인간의 뇌를 모방하다, 딥 러닝 알고리즘

머신러닝에 인간의 뇌를 모방한 신경망 네트워크(neural networks)를 더한 딥 러닝 알고리즘은 인간의 두뇌가 수많은 데이터 속에서 패턴을 발견한 뒤 사물을 구분하는 정보처리 방식을 모방함으로써 기존 머신러닝의 한계를 뛰어넘는다. 1989년 Yann LeCunn 교수와 동료들이 딥뉴럴네트워크(Deep Neural Network)를 소개하였으며 2000년대 중반 캐나다 토론토대학의 제프리 힌튼 교수가 딥뉴럴네트워크를 개선하면서 앤드류 응과 같은 세계적인 딥 러닝 전문가들에 의해 발전했으며, 현재 이들은 구글, 페이스북, 바이두 같은 글로벌 IT 회사에서 그 연구를 더욱 가속화하고 있다.

주로 음성 인식, 영상 분석, 언어 번역 등에 쓰이고 있는 딥 러닝 알고리즘은 2012년 캐나다 토론토대학의 알렉스 크리제브스키가 이미지넷(IMAGENET)이라 불리는 이미지 인식 경진 대회에서 GPU를 활용한 딥러닝을 이용하여 정확도를 획기적으로 높인 논문을 발표하면서 또 한번의 전환점을 맞이한다. 바로 GPU가 딥러닝 연구의 전면에 나서게 된 계기이기도 하다.

▲ 2010년부터 이미지넷 경진대회 결과 데이터. GPU 기반 딥러닝을 도입한 2012년(빨간색 원)부터 획기적인 인식률 향상을 보여주고 있다.

◇ 딥러닝의 획기적인 도약, GPU의 활용

이미지넷 경진대회는 1000개의 카테고리와 100만개의 이미지로 구성되어 정확도를 겨루는 대회다. 2012년 알렉스의 우승 이전까지 10여 년간 컴퓨터의 이미지 인식률이 75%를 넘지 못했지만, 당시 알렉스는 84.7%라는 놀라운 정확도를 보여준 바 있다.

그의 방식은 나선형신경망(CNN)을 이용하여 알렉스넷(Alexnet)이라 불리는 심층 신경망(Deep Neural Network)을 설계한 뒤 GPU를 활용하여 수없이 많은 이미지 인식 훈련을 하는 것이었는데, 이는 직렬 연산 방식인 CPU 기반의 컴퓨터 만으로는 그 시간과 비용 소모가 매우 컸다.

이에 알렉스는 딥 러닝에서 요구되는 엄청난 규모의 연산을 빠르고 정확하게 처리하기 위해 병렬 컴퓨팅에 유리한 GPU를 활용했다. 이후 딥 러닝 연구는 GPU와 함께 발전을 거듭하게 되었고, 최근 2015년에 열린 이미지넷 경진대회에서는 마이크로소프트(MS) 팀이 GPU를 활용하여 무려 96%가 넘는 정확도를 기록함으로써 이미지 인식 능력에 있어 인간과 동등한 수준에 도달하게 되었다.

▲ 알파고는 176개의 GPU로 구성된 시스템을 활용하여 방대한 연산량을 실시간으로 처리하고 있다.

◇ 인공지능 알파고와 GPU

인공지능 바둑 프로그램 알파고 역시 16만 건이 넘는 프로기사 기보를 토대로 매일 3만 번의 실전 경험을 쌓으며 스스로 학습하며 성장하고 있다. 이를 위해 알파고는 176개의 GPU로 이뤄진 고성능 시스템을 구축하고 있는데, 특히 일반적인 CPU 기반 시스템 보다 빠른 연산 속도를 자랑하는 GPU는 보다 짧은 시간에 효과적인 연산을 가능하게 했으며, 전력 소모도 크게 줄일 수 있다.

알파고의 개발총책임자인 데이비드 실버 교수가 ‘알파고의 브레인은 100개가 넘는 GPU’라고 말할 정도로 알파고에 있어서 GPU의 역할은 절대적이라 할 수 있다.



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.