발행년 : | 2016 |
---|---|
구분 : | 국내학술지 |
학술지명 : | 홍익법학 |
관련링크 : | http://www.riss.kr/link?id=A102575463 |
인공지능의 위험의 특성과 법적 규제방안
= The Risk of Artificial Intelligence: Liability and Regulation
이창호와 DeepMind의 알파고 대결은 충격적 결과와 더불어 인공지능에 대한 관심이 증폭되는 계기가 되었다. 그 사건을 계기로 사회 각 분야에서 인공지능에 대한 갖가지 평가와 분석이 나왔다. 그런 분석 가운데는 인공지능의 위험을 과대평가하는 경우가 많고 이런 현상은 외국도 마찬가지다. 인공지능이나 인공지능 로봇이 인간을 지배할 날이 멀지 않았다는 것을 전제로 인공지능에 대한 적절한 통제가 필요하다는 견해를 피력하는 사람도 많다. 이러한 시점에서 인공지능에 대한 제대로 된 이해를 바탕으로 인공지능의 위험과 관련한 법적 규제방안을 검토할 필요성은 크다고 할 것이다. 인공지능은 군사용 로봇이나 휴머노이드 형 로봇에서만 문제되는 것은 아니다. 비근한 예로 자율주행자동차는 인공지능이 체화된 대표적 모델이지만, 산업생산 현장이나 병원의 수술실 등에도 로봇 Infra를 이용한 다양한 형태의 로봇이 있다. 로봇이라고 하여 주행 또는 이동 기능을 꼭 수반하여야 하는 것은 아니므로, 사물인터넷 기능과 결합한 인공지능을 기반으로 한 각종 구현 모델들은 모두 로봇이라고도 할 수 있다. 특히 첨단 군사기술 등에서 인공지능 로봇 기술이 차지하는 비중은 빠르게 늘고 있다. 군사용 로봇은 법적 문제 외에도 민감하고도, 다양한 형태의 각종 문제를 양산한다. 이러한 시점에서 인공지능 로봇의 전제가 되는 인공지능에 대한 연구가 인공지능을 제대로 이해하지 못한 상태에서 이루어진다면 불행한 일일 것이다. 인공지능이 초래할 수 있는 위험과 관련하여 법적 규율 방안의 모색도 인공지능에 대한 심도 있는 이해를 바탕으로 이루어져야 한다. 인공지능이나 인공지능 개발이 갖는 위험의 평가나 규율에 있어서 인공지능 고유의 특질들을 고려할 필요가 있다. 인공지능은 두 번의 부침을 겪은 후 현재 제3세대에 접어들었다. 제1세대나 제2세대가 그리 오래 가지 못한 것은 인공지능 연구자들이나 후원자들이 애초 기대했던 성과가 나오지 않았기 때문이다. 어쩌면 환상에 가까운 기대를 하였는지도 모른다. 현재는 제1세대나 제2세대에서 난제로 생각했던 부분들이 머신러닝의 선도적 연구자들에 의하여 해결되면서 또 다른 기대를 갖게 하지만, 현재까지의 인공지능 수준은 뚜렷한 한계가 있다. 따라서 터미네이터와 같은 강한 인공지능이 출현하여 인류를 위협하는 상황은 요원한 일로 보인다. 따라서 인간 수준의 로봇을 전제로 로봇 윤리학, 로봇의 실존 문제 등을 다루는 논의는 성급하다. 오히려 현재에도 활용되고 있는 약한 의미의 인공지능의 특질을 제대로 분석하고, 그 개발과정이 기존의 기술에 기초한 개발과 어떠한 차이를 보이는지를 제대로 들여다본후, 그런 기초 위에서 그 위험의 특성에 맞는 적절한 법적 규율 방안을 논하는 것이 맞다. 본고에서는 약한 인공지능에 국한하여 그 위험의 특성을 다양한 각도에서 들여다보기로 하였다. 인공지능이나 그 개발과정의 특성을 고려하면 민?형사법적 책임 귀속을 통한 사후적 규율만으로 부족하다. 사후적 규율 외에 개발 단계에 개입하는 사전 규율이 필요하다고 보고 그 방안에 대하여 함께 논의하였다. 실상 인공지능이나 그 개발과정의 위험은 위험사회라고 규정되는 현대에서도 독특하다. 그러면서도 다른 첨단과학 기술이 야기하는 위험과 유사한 측면도 있다. 첨단과학기술 분야는 기존의 법적 체계만 가지고는 그 규율에 많은 어려움이 있다는 점에서 인공지능 규율과 유사한 것은 분명하다. 인공지능은 예측 곤란성, 자율성 등 기존의 기술에서는 볼 수 없는 많은 특질이 있다. 이러한 여러 가지 특질을 규율방안 구상의 출발 선상에 놓아야 한다. 과거 1세대나 2세대의 인공지능 관련 법적 연구는 기호학적 접근법이었다. IF THEN RULE에 따라 세상의 모든 규칙을 기호화하고, 인공지능에게 전지전능한 힘을 부여하려 하였던 제1세대나 제2세대적 인공지능 연구의 실패를 반면교사로 삼아야 한다. 2006년을 기점으로 시작된 현재의 제3세대 인공지능은 머신러닝이라는 다분히 확률론에 기초한 의사결정이 주종을 이룬다. 사람이 일일이 지도.감독(supervise)하지 않고 기계로 하여금 스스로 학습케 하여 규칙을 창출하는 머신러닝이 오늘날 세계인을 놀라게 한 여러 성과를 만들어내었다. 이런 시점에 인공지능과 관련한 법적 연구가 제1세대적인 기호학적 접근방식으로 이루어진다면 시대착오적이다. 인공지능에 대한 논의가 거의 없던 단계에서 인공지능에 대한 다양한 논의가 전개되는 상황으로의 변화는 분명 소망스러운 것이지만, 그 논의는 인공지능이나 머신러닝 등 현재의 인공지능 부활을 가져온 이론에 대한 제대로 된 이해의 전제 위에서 이루어져야 한다.