-
기계가 점점 더 똑똑해지고 삶을 바꾸는 결정을 내리게 되면서, 어떻게 기계가 윤리적으로 행동하도록 보장할 것인가 하는 의문점이 생깁니다.
그것은 마치 넷플릭스의 미래 디스토피아 블랙 미러의 대본처럼 보입니다. 챗봇들은 이제 이렇게 묻습니다. "어떻게 도와드릴까요?" 답장은 "너 인간이니?"라고 타이핑됩니다. "물론 나는 인간이다"라는 반응이 나옵니다. "그렇지만 네가 인간인지 내가 어떻게 알아?" 그리고 이런 질문과 대답은 계속됩니다. 마치 영화의 대본처럼.
AI 배후에 있는 사람들에게 책임을 지우는 것인간의 지능을 모방하는 기계의 능력에 의문을 제기하는 이른바 튜링 테스트가 지금 벌어지고 있습니다. 수십억 파운드의 투자는 물론 페타 바이트급 데이터로 무장한 강력한 인공지능(AI). 인공지능도 사람들의 삶에 대한 의사결정을 점점 더 많이 하고 있습니다.
이것은 규제당국뿐만 아니라 기업, 사회, 정치인들에게 많은 불타는 윤리적 문제를 제기합니다. 만약 기계학습이 점점 더 누구를 위해 저당물을 대출할 것인가를 결정하고, 기소 사건에 대한 법원의 판단을 내리거나, 직원의 성과를 평가하고, 누구를 채용할 것인가를 결정한다면, 우리는 컴퓨터화된 결정이 공정하고, 합리적이며, 편견으로부터 자유롭다고 어떻게 알 수 있을까요?
"회계 성이 관건이다. 인공지능(AI)의 배후에는 반드시 책임을 져야 한다."(줄리안 데이비드 테크 UK 최고경영자(CEO)는 설명합니다. 그는 "그래서 기계에 법적 정체성을 부여하기 전에 매우 신중하게 생각해야 한다"라고 말했습니다. 진정으로 선한 일을 하고 신뢰할 수 있는 사람이 되고자 하는 기업은 윤리에 훨씬 더 많은 관심을 기울일 필요가 있을 것입니다."
현재 시행되고 있는 것뿐만 아니라 소셜 네트워크에 대한 과도한 데이터 수집의 붕괴가 이러한 문제들을 표면화하고 있습니다. 이들은 인간이 데이터나 대기업을 서비스할 것이 아니라 데이터가 궁극적으로 인간에게 서비스를 제공하기 위해 사용되어야 한다는 사실을 강조합니다.
"대중들이 이 문제에 대해 반격하기 시작하고 있다. 상원 인공지능 선정위원회 위원장인 클레멘트 존스 경은 "사람들은 EU 법과 정보 거버넌스에 대해 아는 것이 없다고 말하지만, 페이스북과 같은 데이터 침해와 스캔들에 대해서는 알고 있다"라고 말했습니다.
전직 구글 엔지니어였던 요나탄 준거는 데이터 과학은 이제 엄청난 윤리적 위기에 직면해 있으며, 예를 들어 화학자 알프레드 노벨에 의한 다이너마이트의 발명과 함께, 물리학은 히로시마의 핵 폐기 당시를 계산하고, 의학은 탈리도마이드 순간을 맞이하고 있다고 말했습니다.
윤리는 기술보다 먼저 와야지, 반대로 되어서는 안 된다.그러나 역사가 말해주듯 윤리는 전선에서 리드하는 것이 아니라 최신 기술의 미행에만 매달리는 경향이 있습니다. 앨런 튜링 연구소의 데이터 윤리 연구 보조원인 조시 콜스는 "최근의 스캔들이 밑줄에 작용하는 것처럼, 혁신이 원격으로 지속 가능하려면 데이터 과학이나 AI와 같은 혁신 기술의 윤리적 함의를 신중하게 고려해야 한다"라고 말합니다.
21세기에 윤리가 번성하려면 기업이 정면으로 대처해야 할 것입니다. 리서치 회사인 IDC에 따르면, 2018년 인지 시스템에 대한 전 세계 지출이 약 190억 달러로 증가할 것으로 예상되는데, 이는 2017년에 비해 54%나 급증한 것입니다. 가트너는 2020년까지 AI가 전 세계적으로 230만 개의 새로운 일자리를 창출하는 동시에, 직장에서 180만 개의 역할을 없앨 것으로 전망했습니다.중요한 우려는 기계가 점점 더 인간의 행동을 모방하고 복잡한 전문적 비즈니스 판단을 내리려고 할 때 투명성은 물론 의사결정에서 어떻게 공정성, 정의, 청렴성을 보장할 것인가 하는 점입니다.
"간단한 대답은 인간의 뇌를 복제할 수 있기 전까지는 아마도 복제할 수 없다는 것이다. "라고 차타드 뱅커 연구소의 자일스 커트버트 전무이사가 설명합니다. "우리는 AI 자체에 대해 책임을 질 수 없다는 것을 절대적으로 분명히 밝혀야 합니다. 이는 물론 AI가 배우기 시작하면 더욱 복잡해지지만 그때도 학습 능력이 프로그래밍돼 있다고 말했습니다.
도덕적 권리와 경제적 권리의 균형산업은 결코 공개적인 것이 아닙니다. 많은 알고리즘은 민간 기업에게 시장에서 우위를 주기 때문에 기업들이 가장 잘 간직하고 있는 비밀입니다. 그러나 소위 "블랙박스 AI"라고 불리는 불투명한 상황은 많은 사람들을 걱정하게 했습니다. 미국의 AI Now 연구소는 의미 있는 정밀 조사와 책임의 범위를 벗어난 이러한 감사되지 않은 시스템의 사용을 중단할 것을 요구했습니다.
"우리도 이 점을 글로벌 관점에서 바라볼 필요가 있다. 기업들은 앞으로 윤리적 위원회를 필요로 할 것이다. 빅 이노베이션 센터의 최고 책임자인 비르짓테 안데르센 교수는 AI에 관한 원칙과 관련해서는 행동 강령에 따라 이 이사회들을 국제 수준에서 공동 정렬할 필요가 있다"라고 말했습니다.
"개인의 도덕적 권리는 있지만, 데이터를 공유하는 데서 오는 사회의 경제적 권리를 소홀히 해서는 안된다. 데이터는 새로운 석유, 성장의 새로운 엔진이다. AI가 작동하려면 데이터가 흐를 필요가 있을 것이다."
영국은 AI 윤리에 앞장설 수 있다.영국은 테리사 메이 총리의 새로운 데이터 윤리 및 혁신 센터 요청으로 인공지능(AI) 윤리 분야를 선도해야 한다는 입장이 강합니다. 결국 이 나라는 초기 AI 사고의 핵심이었던 수학자 앨런 튜링의 출생지로 구글의 알파고와 딥마인드가 이곳에서 시작됐습니다. 아마존의 알렉사에게 말하는 법을 가르친 것은 영국인이었습니다.
영국의 기업들도 다양성과 포용력, 환경 등 많은 다른 문제들에 대해서는 좋은 지배구조에 열을 올리고 있습니다. "이 나라는 세계 어느 곳에서도 이것을 바탕으로 건설할 수 있는 최고의 자원을 가지고 있다. 윤리에 대한 리더십은 영국만의 판매점이 될 수 있지만 이를 바로잡을 수 있는 기회는 상대적으로 좁다. "이 모든 것에 대해 조치를 취해야 할 때가 바로 지금입니다."라고 테크 UK의 데이비드 씨는 결론짓습니다.
AI를 위한 '마그나 카르타' 작성테리사 메이 총리는 2018년 초 세계경제포럼(WEF) 연례 C-suite 페스티벌에서 영국이 글로벌 거버넌스를 형성하는 데 있어 세계적인 리더가 되기를 원한다고 말하면서 인공지능(AI)에 초점을 맞추기로 했습니다.
그녀는 다보스 연설에서 "우리는 세계 최고의 데이터 윤리 및 혁신 센터가 국제 파트너들과 긴밀히 협력하여 인공지능의 안전하고 윤리적이며 혁신적인 배치를 보장하는 방법에 대한 공통의 이해를 구축하기를 바란다"라고 말했습니다.
여기에는 알고리즘이 개발자의 인간 편견을 영속시키지 않도록 하는 등 책임감 있는 방법으로 AI를 최대한 활용할 수 있는 규칙과 표준을 제정하는 것도 포함됩니다.
이후 지난 4월 영국의 첫 AI 공개조사가 이뤄졌습니다. 상원 인공지능 선정위원회는 조직이 가입할 수 있는 국가 및 국제 AI 행동강령을 권고했습니다. 그들의 보고서는 또한 경쟁과 시장 당국의 "데이터의 독점"에 대한 조치를 대기업에 요구했습니다.
"여러 면에서 우리는 새로운 마그나 카르타가 필요하며, 이번에는 AI를 위한 것이다."라고 선정 위원회 의장 Lord Clement-Jones가 설명합니다. "이미 시간과의 경쟁으로 보고 있고 AI는 지금 여기에 있습니다. 복잡한 알고리즘은 이미 사람들의 삶에 영향을 미치고 있습니다. 우리에게 필요한 것은 그 문제에 대한 신속하고 포괄적인 접근입니다. 우리는 이 공간에 새로운 규제가 아니라 윤리적 틀이 필요하다고 생각합니다."
데이터 윤리 심의 위원회의 질의와 데이터 윤리 센터 설립 움직임은 이미 영향을 미쳐 영국의 AI 정책적 사고의 핵심에 윤리를 두고 있습니다. AI 글로벌 거버넌스 위원회 설립 요구와 마찬가지로 에이다 러브레이스 연구소, 정보 위원실 등의 업무도 탄력을 받고 있습니다.
앨런 튜링 연구소의 데이터 윤리 연구 보조원인 조시 콜스는 "정부가 이러한 기술의 기회와 위험 모두를 심각하게 받아들이고 있다는 것은 고무적인 일"이라고 말합니다.
기업 자체도 윤리 발전에 중요한 역할을 합니다. 이러한 노력이 효과적으로 조정될수록 더 성공하기 쉽습니다. 그리고 만약 그들이 성공한다면, 그것은 영국이 기업에 이익이 되는 만큼 사회에 이로운 AI 기술의 개발에 호스트 역할을 할 수 있게 될 것입니다.'정보기술' 카테고리의 다른 글
5G 스마트 도로가 교통의 미래인 이유 (0) 2020.06.04 양자컴퓨팅과 AI가 충돌할 때 (0) 2020.06.03 오픈소스 기술의 혁신 (0) 2020.06.01 5G 의 실제 위험 정도 (0) 2020.05.31 생체인식 기술과 인종 편견 (0) 2020.05.30