ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • AI의 역사 쉽게 알아보기
    정보기술 2020. 6. 29. 07:18

    컴퓨터는 구약성서의 신과 비슷하다.

    규칙은 엄청 많은데 자비라고는 없다.

    흔히들 요즘을 4차 산업 혁명의 시대라고 한다. 1차 산업혁명 시대에는 동력원이 석탄이었고  이를 이용했던 핵심기술은 증기기관이었다. 2차 산업혁명 때는 동력원이 석유와 전기로 확장됐고, 3차 산업혁명 때는 컴퓨터와 인터넷으로 상징되는 신기술이 시대 아이콘이 되었다.

     

    4차 산업혁명이란 무엇일까? 동일한 맥락으로 말하자면 석탄이나 석유에 해당하는 동력원이 빅데이터 그리고 그러한 빅데이터로 움직이는 핵심 기반기술이 인공지능 시대를 말한다. 

    빅데이트를 넣으면 인공지능이 일을 통합해서 새로운 정보를 창출하고 이를 토대로 예전엔 없던 강력한 초연결사회를 만든다는 것이다. 사실 인공지능이란 인간의 여러 신체부위를 대신하던 기계가 결국 인간의 뇌 마저 대신하게 되었는 의미이다.  그런데 여기에 빅데이터가 가세하면 개인의 뇌를 넘어 체계적인 집단지성의 완성이라는 의미로 확장될 수 있다. 다시 말해 빅데이터 인공지능이라는 도식은 전 인류의 뇌라는 상징적 의미로 진화해  잠재력을 내포하고 있는 것이다.

     

    요즘은 인공지능이란 말이 일상적으로 너무 자주 쓰이고 그에 대한 정보가 넘쳐나다 보니 정작 인공지능이 본질이 무엇이고 어떤 중요성을 갖고 있는지 망각하기 쉽다.  그럼 이제 인공지능이랑 도대체 무엇인가를 알아보기로 한다. 

     

    인공지능을 알기 위해서는 먼저 지능이 무엇인지를 알아야 한다. 존스홉킨스 대학에서 석좌교수이자 지능 전문가라 할 수 있는 이대열 교수의 말을 빌리자면  지능이란 다양한 환경에서 복잡한 문제를 해결하는 능력이라고 정리할 수 있다. 이렇게 정리하면 인간뿐 아니라 거의 모든 생명체가 지능을 갖고 있다고 할 수 있다.  왜냐하면 동물은 말할 것도 없고, 식물이나 심지어 미생물조차도 어떤 문제에 봉착하게 해결할 수 있는 진화적 능력을 갖고 있기 때문이다.  이를 자연지능이라 한다면 인공지능이란 이런 자연 지능의 본질을 규명해서 인공적으로 제어하는 것을 말한다.

     

    사실 인공지능을 과학적으로 정리하면 지능을 모방해서 특정한 문제를 풀기 위한 기술인데 이를 약한 인공지능이라고 한다. 그렇다면 여기서 한 걸음 더 나아가 인간처럼 생각하고 감정과 의식을 가지며 창의성을 발휘할 기계는 강한 인공지능이라 부를 수 있을 것이다. 만일 이렇다면 미치오 카쿠의 얘기처럼 인공지능을 실리콘 의식으로 불러도 무방 할 것이다.  하지만 많은 과학자나 공학자들이 얘기하는 인공지능은 지능이라는 본연의 의미에 충실한 약한 인공지능이라 할 수 있다.

     

     

    인공지능의 역사는 언제부터일까?

    1950년 앨런 튜링이 튜링 테스트를 제안한 것이 그 아이디어의 상징적 시작점이다. 하지만 1956년 존 매카시 등이 주도한 다트머스 회의를 본격적인 출발로 보는 것이 일반적이다.  이 회의에서 처음으로 Artificial Intelligience 즉 인공지능이라는 용어가 탄생한다. 다트머스 회의 후 AI의 역사에는 3번에 황금기와 2번에 침체기가 있었다. 일을 간략히 개관하면 다음과 같다.

     

    AI 창세기(1956년): 다트머스 콘퍼런스 

    제1차 AI붐(1956~1974): 간단한 문제 해결

    첫 번째 AI 겨울(1974~1980)

    제2차 AI 붐(1980~1987): 전문가 시스템

    두 번째 AI 겨울(1987~1993)

    제3차 AI붐(1993~): 기계학습과 딥러닝

     

    AI를 이끈  위대한 과학자들도 함께 알아두면 좋겠다. 먼저 최초의 AI를 이끈 영웅에는  앨런 튜링,  
    클로드 섀넌, 존 매카시, 마빈 민스키, 앨런 유얼,  허버트 사이먼 등이 있다.  1세대를 이어 3차 AI붐을 이끌 2세대  과학자 중에는 누구보다 제프리 힌튼, 요수아 벤지오, 얀 레쿤, 앤드류 웅이 유명한데 AI 4대 천왕이라 불리기도 한다. 

    다트머스 콘퍼런스 이후 컴퓨터 프로그램은 비약적으로 발전해서 간단한 대 수학 문제를 풀고 수학 정리를 증명했으며 언어를 학습하고도 했다.  사람들은 이러한 발전에 보고 완전한 지능을 가진 기계가 출연할 것이란 낙관했다. 하지만 '모라벡의 역설'과 '상식의 저주'가 도약하는 발목을 잡게 된다

    .

    모라벡의 역설이란 인간에겐 쉬운 것이 AI에게는 어렵다는 것인데, 예를 들어 인간에게는 보거나 걷는 것 등이 쉬운 방면 컴퓨터나 로봇에게는 어렵다는 것이다.  상식에 저주란 우리 인간에겐 상식 수준의 지식들도 AI는 모두 배워야만 가능하다는 것으로 인간에게는 손과 발이 두 개씩 있다, 집에는 문과 창문이 있다는 우리에겐 너무나 당연한 지식이 AI에게는 오히려 난제로 작용한다는 것이다.

     

    이건 결국 컴퓨터로는 복잡한 현실에 문제를 풀 수 없고, 따라서 인간의 지능을 컴퓨터로 실현하는 것은 엄청나게 어렵다는 것이 밝혀지면서 AIA 암흑기가 도래한다. AI에 대한 투자가 급감하고 그에 따라 AI 연구도 내리막길에 접어들어 일요일 첫 번째 겨울이라고 부른다.  AI가 인공지능이 아니라 인공 무능이라는 놀림감의 대상이 될 정도였다. 

     

    AI의 봄은 전문가 시스템과 함께 찾아온다. 간단히 말해 컴퓨터에 지식을 넣으면 똑똑해질 거라는 발상으로 모라벡의 역설과 상식에 저주를 전문가 시스템으로 돌파한 것이다. 지능 전체를 구현하기보다 부분적으로 구현하자는 것으로 기계를 끝없이 가르치는 것 외에 지름길이 없다는 것을 인정한 것이다. 한 분야에 관한 거대한 데이터베이스를 구축하면 컴퓨터는 특정 분야의 전문가가 됩니다. 의사의 경우라면 질병에 관한 많은 지식을 변호사라면 법률에 관한 많은 지식을 입력해서 복잡한 현실의 문제를 해결할 수 있다는 것이다.

     

    전문가 시스템은 지식을 많이 입력하면 할수록 성능이 좋아졌지만 반대로 입력한 지식 이외의 것은 할 수 없었다. 역시 빠른 속도로 그 한계에 노출되었고 AI 2차 혹한기가 찾아왔다. 여기서 특히 문제가 되는 것이 소위 프레임 문제인데 AI는 주어진 현실 상황에서 인간과는 달리 모든 것을 다 고려해서 한없이 생각할 수밖에 없다는 것이다.  이를테면 인간은 목적과 관계에 있는 것만을 보고 듣고 고려할 수 있는 반면, AI는 어떤 주어진 상황에서 목적과 관계있는 것과 관계없는 것을 구분하느라 많은 시간을 허비할 수밖에 없다는 것이다. 상황과 관련된 지식을 모조리 다 써 놓을 수도 없는 노릇이고, 우리가 너무나 자연스럽게 하는 일들 컴퓨터에게는 어렵다는 점에서 다시 모라벡의 역설이나 상식의 저주와도 맞닿아 있는 문제라 하겠다.

     

     AI 3차 황금기에 키워드는 학습이다. 1990년대 패턴인식에서 출발한 머신러닝, 즉 기계학습이 이에 해당한다. 이는 전문가 시스템을 거꾸로 뒤집은 것으로 전문가 시스템이 지식을 데이터 형태로 하는 것이라면 기계학습은 데이터로부터 새로운 지식을 끄집어낸다.  다시 말해 전문가 시스템이 지식기반 방법론이라면 기계학습은 데이터 기반 방법론이라고 할 수 있다. 학습이 지식을 능가한다는 얘긴데 천재도 노력하는 자를 이길 수 없다는 말이 있듯이 말이다.  이런 기계학습은 1990년대 중반 이후 인터넷이 폭발적으로 성장하면서 대량의 데이터를 이용할 수 있게 됨에 따라 가능해진 일이었다. 예를 들어 번역 프로그램의 경우 문법이나 의미 같은 지식을 생각하지 말고 방대한 데이터를 분류해서 번역되는 확률이 높은 것을 적용하던 겁니다. 영어로 된 이 단어는 한글의 이 단어로 번역될 확률이 높다는 식인 것이다. 전문가 시스템의 대표주자인 IBM 왓슨이 2011년 미국의 퀴즈 프로그램에서 우승해 100만 달러가 넘는 상금을 획득했다면 머신러닝의 총아인 구글 알파고는 2016년 당시 세계 바둑 챔피언이 이세돌을 누르고 역시 100만 달러의 상금을 따갔다.

    여기서 학습이란 근본적으로 데이터를 특징에 따라 분류하는 것을 말하며 대표적인 방법으로는 뉴럴 네트워크 즉 인공신경망이 있다. 생체 뉴런의 정보 전달 방식을 모방에서 마치 우리가 학습하면 뉴런이 강화되듯이 학습과정에 중요성을 부여하자는 아이디어였습니다. 이를테면 군대 지휘관이 10명의 척후병으로부터 적에 대한 정보를 수집한다고 할 때 각 척후병의 정보가 유용 한가에  따라 척후병이 수집한 정부의 가중치를 부여한다는 발상입니다.

     

     

    그런데 이런 기계학습에서 커다란 난관이 도사리고 있었다. 방금 전에 학습이란 특징에 따라 데이터를 분류하는 것이라 했는데, 이러한 특징들은 인간이 입력할 수밖에 없고 이것이 기계학습에 최대 난제 임이 들어 난 것이다. 고양이를 인식하는 문제를 예로 들어 보면 갓 태어난 아기는 눈이나 귀로 들어오는 정보의 홍수 속에서도 고양이의 특징을 발견하고 이를 고양이로 인식하는 방법을 학습한다. 진화적으로 내장된 툴이 무의식적으로 작동하는 것이다. 이처럼 우리는 우리의 뇌가 어떻게 하고 있는지는 모르지만 고양이를 구별할 수는 있다. 하지만 인간이 컴퓨터에게 이러한 특징들을 가르치려 한다면 바로 문제가 생긴다. 우리의 뇌가 작동하는 방법을 모르니 컴퓨터에게 제대로 가르쳐 줄 수가 없는 것이다. 이를 Feature Design 디자인 특징 설계 문제라고 한다. 이런 특징 설계 문제를 돌파한 방법이 바로 심층 신경망 딥러닝이다.

     

    데이터를 바탕으로 컴퓨터가 스스로 특징을 만든단 얘기로 특징 자체를 학습하는 진정한 의미의 학습이라 할 수 있다. 이전에 기계학습이 주입식 교육이었다면 딥러닝은 자율 학습이라 할 수 있다.  우리나라 전국 도시 미세먼지 수준을 예보하기 위해 여덟 개 입력값을 선택한다고 가정하겠다. 여러분이라면 어떤 입력값을 선택하시겠습니까? 가장 먼저 떠오르는 생각은 전국적으로 대표적인 여덟 개의 도시를 선택하는 방법이다. 물론 여덟 개의 도시가 한 곳에 모여 있으면 안 되고 적당히 퍼져 있어야 할 것이다.  하지만 다른 방식으로 여덟 개 입력 값을 선택할 수도 있다. 예를 들면 꽤 넓은 지역에 평균치를 구해서 다음과 같이 선택할 수도 있을 것 같습니다. 예를 들어 충주에 미세먼지 수준은 알고 싶다면 전국과 충청도 수치에 적절한 가중치를 곱해서 구하면 된다. 어떻게 생각해도이 방법이 전국 도시의 미세먼지 수준을 더 잘 지켜 줄 것 같다. 일반적인 기계학습은 이런 특징들을 인간이 입력해 주지만 딥러닝에 경우 AI가 데이터로부터 가장 적절한 특징들을 스스로 찾아낸다는 것이다.

     

    딥 러닝은 2006년 제프리 힌튼이 심층 신경망의 가중치를 결정하는 알고리즘을 개발함으로써 본격적으로 시작된다. 하지만 딥러닝 방식이 제대로 가동하려면 컴퓨터의 속도와 데이터 양이 엄청나게 증가해야 했다. 2010년대에 접어들어 고속 병렬 그래픽 처리 장치 GPU와 빅데이터라는 두 가지 중요한 발전으로 마침내 딥러닝은 빅뱅을 일으킨다. 

     

    AI 역사에서 우리는 2016년 알파고를 가장 중요한 사건으로 기억하고 있지만 사실상 2012년 이미지 인식 대회에서 제프리 힌튼이 주도한 토론토대학의 슈퍼비전이 압도적 승리를 거둔 사건이야말로 AI 역사상 가장 중요한 사건일 것이다. 대부분의 AI가 에러율 26%를 보이고 있던 시기에 슈퍼비전은 15~ 16% 에러율이라는 경이적인 수치로 우승을 차지한 것이다. 2년 뒤 2014년 구글의 신경망이  6.6%의 에러율에 도달해서 인간의 5.1%에 근접합니다. 구글 AI는 천만 건의 유튜브 동영상을 자가 학습한 후 놀라운 정확성으로 고양이를 식별하는 데 성공한다.

    2015년 마이크로소프트는 무려 백신 2개 층을 가진 딥러닝 구조로 3.56%의 에러율에 도달해서 마침내 인간을 넘어선다.

     

    지금까지 대략 60년의 AI 역사를 대력적으로 알아봤다.  AI의 역사에서 그 패러다임이 탐색에서 지식으로 다시 학습으로 키워드가 변해 온 것을 알 수 있다. 그리고 AI와 머신러닝 딥러닝을 헷갈려하시는 분들이 이제는 확실하게 구분하실 수 있으리라 생각한다.  인공지능의 여러 방식 중 학습에 기반을 둔 것이 머신러닝이고 딥러닝은 머신러닝 중에서 스스로 학습하는 최신의 방법이라고 할 수 있다.

    댓글

Designed by Tistory.