ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • AI의 윤리
    정보기술 2020. 4. 28. 07:22

     

    트롤리 딜레마

     

    마이클 샌델은 정의란 무엇인가 에서 트롤리 열차의 달리는 방향을 조정함으로써 5 명의 인부를 살리는 대신에 한 명이 희생될 수 있는 상황에서 사람들은 어떤 판단을 내리는가 하는 실험 결과를 설명하고 있다.

     

    만약 레일 변환기 조작을 인공지능이 맡게 된다면 인공지능은 어떤 판단을 하게 될까?

    또 인공지능 판단에 결과를 사람들은 수용할 수 있을까?

    사람들은 인공지능이 어떤 행동을 하도록 프로그래밍 또는 규칙을 정해 줘야 할까?

    자율 주행차가 접촉사고를 내고 2016년 7월 12일 미국 캘리포니아의 쇼핑센터에서 보안 로봇이 유아를 공격하는 일들이 발생했다.

    이스라엘의 로봇 회사인 제너럴 로보틱스는 2016년 휴대용 전투로봇 도고를 선보였다.

    인간의 조작, 결정 없이 스스로의 판단으로 총기를 발사할 수 있는 킬로 로봇이다.

    자율주행차, 보안로봇, 킬러 로봇 등 이들에게 어떤 책임을 물을 수 있을까?

     

     

    인공지능 유형

     

    인공지능 능력에 따라 약인공지능, 강인공지능 초인공지능 등으로 나눌 수 있다.

    약인공지능은 한 가지 분야의 일만 수행하며 미리 정의된 규칙을 이용하여 학습한다.

    IBM 왓슨이나 구글에 알파고, 시리와 지니 등 음성 비서도 여기에 속한다.

    강인공지능은 다양한 상황에 두루 사용될 수 있는 인공지능을 말한다.

    규칙을 벗어나 스스로 데이터를 찾아 한 번도 해보지 않은 것을 학습하는 능력이 있다. 인간과 동등한 능력을 보유하고 인간처럼 스스로 판단하며 자아가 존재한다.  아직 현실에는 존재하지 않으며 영화 아이언맨 자비스 인터스텔라의 타스가 있다. 

    강한 인공 지능이 인간 수준의 능력을 보유한다면 초 인공지능은 인간을 뛰어넘는 능력을 보유한다.  강한 인공지능의 자체 개선을 통해 스스로의 능력을 뛰어넘게 되는 것으로 인간이 상상할 수 있는 범위를 넘어선 다. 

    사람에게 바람직한 행동을 하는가에 따라 착한 인공지능과 나쁜 인공지능으로 나눌 수 있다.  2015년 미국에서 제작된 영화 채피에서 22번 로봇 채피는 인간을 위해 악당 로봇들을 물리친다.   채피 와 악당 로봇 같은 공정으로 제작되지만 학습과정이 달랐기 때문에 선한 가치 판단을 할 수 있게 되었다.

     

     

    인공지능과 윤리에 대한 논쟁

     

    윤리란 사람들이 서로 간에 지켜야 할 바른 행위 또는 집단의 한 구성원으로서 인간이 살아가는 방식을 말한다. 다시 말하면 인간이 인간으로서 인간과 함께 살아가기 위해 따라야 하는 것으로 자신과 다른 사람 모두에게 올바른 것으로 여겨지는 행위이다.

    첫 번째 논쟁은 인공지능이 윤리를 배울 수 있을까에 대한 것이다.

    찬성하는 지금 인공지능은 사람이 내리는 의사결정의 상황과 판단 및 결과를 데이터로 학습할 수 있고 결과적으로 사람만큼 또는 사람보다 나은 의사결정을 내릴 수 있다고 주장한다.

    반대하는 측은 인공지능은 추론하는 능력이 사람보다 떨어지기 때문에 복잡하거나 새로운 환경에서 옳고 그름을 판단하기란 불가능하다고 주장한다.

    두 번째 논쟁은 인공지능의 인격을 부여할 수 있을까에 대한 것이다. 만약 인공지능이 사람을 윤리를 배울 수 있다면 인공지능은 인간과 유사한 수준의 인격을 부여받을 수 있을 것이다.

    그렇지 못한다면 인간의 판단을 보조하는 수준에 머무르게 될 것이다.

    인공지능이 인격을 받게 되면 사람처럼 행위에 대한 책임은 물론이고 납세와 병역 등 사회적 의무도 해야 한다는 주장도 있다.

    유럽연합은 2017년 2월 로봇에 전자 인격에 대한 결의안을 유럽연합의회에 제출하기도 했다.

     

     

     

    인공지능 규칙 만들기 동향

     

    인공지능은 1950년 미국 다트머스 회의에서 처음 사용되었는데 인간처럼 생각하고 인간만이 해결할 수 있는 문제를 해결하는 기계를 만들고자 제한하는 과정에서 나온 용어이다.

    우리나라에서는 지능형 로봇 개발 및 보급 촉진법이 2008년 제정되었다.

    이 법에서 지능형 로봇 윤리헌장의 제정을 규정하였다.    윤리헌장 초안에 인간, 로봇, 제조자, 사용자 윤리에 대한 내용을 담았으나 로봇의 결정이라는 철학적 문제에 부딪혀 제정되지 못했다.   2017년 6월 일에는 국회산업통상자원위원회 더불어민주당 박정 의원이 국회 입법조사처와 공동으로 '인공지능 윤리 가이드라인 필요성과 내용'이라는 주제로 정책토론회를 열었다.

    민간에서는 카카오가 최초로 인공지능 기술 개발 및 윤리에 관한 알고리즘 규범을 2018년 1월 발표했다.

    의도적인 사회적 차별을 경계하며 윤리에 근거하여 학습 데이터를 운영할 것, 알고리즘에 대해 설명할 것 등을 규정하고 있다. 

    해외에서는 국제전기전자기술자협회가 AI 윤리 표준안을 2016년 12월에 배포했다.  이것은 윤리적 연구와 디자인을 위한 방법론 등을 담고 있다. 

    대형 IT 기업인 IBM, Google , 페이스북, 마이크로소프트, 아마존의 다섯 개 업체는 인공지능 윤리지침에 대한 논의 등을 위해 2016년 9월 '파트너십 온 AI'라는 협의체를 구성했다. 

    마이크로소프트는 2017년 인공지능 윤리 디자인 가이드를 자체적으로 제정하였고 인공지능 사용에 대한 사회적 표준을 마련하는 노력을 계속하고 있다.  2017년 초에는 미국 캘리포니아 아쉴로마에 수백 명의 AI 전문가가 모여 회의를 열고 23개 조항의 '아쉴로마 AI 원칙'을 만들었다.   살상 가능한 자율적 무기를 개발하기 위한 경쟁은 지양해야 한다는 등을 포함하고 있다.

    호킹, 일론 머스크, 데미스 하사비스, 레이먼드 커즈와일 등 2000명이 넘는 과학 기술계 인사들이 서명했다. 싱가포르가 2018년 6월 발표한 ' AI 거버넌스 및 윤리 정책'에는 기업이 자발적으로 규칙을 제정해야 한다는 내용 등을 담고 있다.

     

     

    미래는 어떤 모습일까?

     

    석학들은 인공지능을 어떤 식으로든 규제해야 한다는 의견을 공감한다.

    사람이 통제할 수 없는 AI에 등장이 생각보다 멀지 않았다고 예측한다. 

    실제로 구글에 알파고가 두는 바둑 수는 프로기사들이 이유를 이해하지 못한다.   페이스북 마케팅에 추천 알고리즘에 결과는 인간 마케터들이 설명하지 못한다. 

    기계학습으로 만들어진 스코어링 모델을 적용하여 산출한 신용등급은 금융회사 담당자도 고객에게 납득시킬 수가 없는 현상이 벌어지고 있다.

    2018년 10월 31일 마이크로소프트의 크레이그 샤크 부사장은 숙명여대 인공지능과 윤리라는 주제로 특강을 했다.  샹크 부사장은 보다 밝은 미래를 만들려면 AI가 할 수 있는 것이 아니라 AI가 해야 할 것을 집중해야 한다고 말했다.

    AI가 사람을 편리하게 하는 것은 분명하지만 AI 확신이 가져올 경제 사회에 변화를 사람이 조정할 수 있어야 한다는 뜻으로 해석된다. AI로 인해 발생할 수 있는 불평등 심화, 인간소외, 개인화 등의 문제를 해결하기 위한 새로운 패러다임을 준비해야 할 시점이다.  

     

     

    댓글

Designed by Tistory.