인공지능(AI) 시대의 형사적 쟁점에 관한 연구
= A Study on Criminal Issues of Artificial Intelligence(AI)
- 저자[authors] 이건필
- 발행사항 서울 : 고려대학교 대학원, 2019
- 형태사항[Description] 129p ; 26 cm
- 일반주기명[Note] 지도교수: 하태훈
- 학위논문사항[Dissertation] 학위논문(석사)-- 고려대학교 대학원 : 법학과 2019. 2
- 발행국(발행지)[Country] 서울
- 출판년[Publication Year] 2019
- 주제어 인공지능,AI,새로운 위험원,인공지능의 범죄능력,인공지능의 형벌능력,인공지능의 행위능력,위험사회,위험형법
- 소장기관[Holding] 고려대학교 도서관 (211009)
- UCI식별코드 I804:11009-000000083704
국문 초록 (Abstract)
4차 산업혁명의 핵심적인 기술인 인공지능 기술의 활용은 보편화되고 있고 특정 분야에서는 이미 인간 능력의 한계를 넘어서고 있다. 경험적으로 알고 있듯이 새로운 과학 기술의 등장은 인류에게 큰 편익과 동시에 새로운 유형의 위험을 초래하였다. 그런데 인공지능은 인간을 대신하여 자율적으로 판단하고 행동한다는 측면에서 인간의 도구로 활용되었던 과거의 과학 기술과는 커다란 차이점이 있다. 이러한 인공지능의 등장은 필연적으로 새로운 유형의 위험을 초래할 것이다.
현대사회를 ‘위험사회’로 정의한 울리히 벡은 과학기술의 발달이 오랜 기간 인류를 위협하였던 자연재해나 기근과 같은 전통적인 위험을 제거했지만, 역설적으로 과학기술 자체가 또 다른 형태의 위험을 초래하였다고 보았다. 그런데 인공지능은 벡이 지적한 위험의 특징(전지구성, 초계급적 보편성, 비가시성과 지식의존성 및 사회적 구성성과 같은) 뿐 만 아니라 자율성, 예측곤란성, 개발의 분산성, 야기된 손해에 대한 인과관계 확정의 어려움, 책임귀속의 어려움과 같은 잠재적 위험의 원인을 갖고 있다.
규범이라는 측면에서 현대사회에 새로운 위험원으로 등장한 인공지능은 종래의 과학기술이 초래한 위험에 대한 대응과는 다른 방식의 규범 체계가 마련되어야 할 것으로 보인다. 뿐만 아니라 인공지능의 자율성과 인지능력이 점차 진화함에 따라 인공지능의 유해한 행동으로 인해 발생하는 법적 책임은 더욱 복잡하고 중요하게 되었다. 그렇지만 전통적인 형법은 적용대상은 자연인으로 한정되어 있고, 인공지능이 스스로 인지하고 판단한 결과에 따라 사고를 내도 책임귀속의 어려움이 예상되는 등 형벌의 공백이 예상된다.
인공지능이 종래의 과학기술과 구별되는 특질로 인해 인공지능과 관련하여 민사법에서도 재편성이 요구되고 있다. 2017년 유럽의회가 결의한 ‘로봇공학에 관한 민사법 규율(Civil Law Rules on Robotics)’에서도 법적인 문제에 대한 책임 해결이라는 필요에 의해 지능형 로봇에 ‘전자인(E-person)’이라는 특별한 법적 지위를 부여할 가능성에 대해 언급하고 있다. 이러한 민사법적 논의는 향후 인공지능이 초래한 법익 침해 결과에 대한 형사적 제재에 대한 논의의 단초가 될 것으로 보이고 인간행위 중심으로 형성된 전통적 형사법 체계 역시 근본적 검토가 필요할 것으로 보인다.
한편 형법의 기능적 측면에서 형법적 규제의 필요성에 대해 살펴보더라도 형법은 사회구조의 산물로서 사회의 변화와 고립되어 존재할 수 없고 개인의 자유와 권리를 위법한 침해로부터 보호하기 위해서도 인공지능이 초래하는 형법적 평가가 필요하다. 또한 인공지능이 초래한 법익침해적 결과가 배후의 사람에게 예측가능성이 없음에도 책임귀속을 시도하는 것은 형법상 책임주의에 반한다. 그러므로 인공지능이 초래한 위험을 어떻게 분배하고 결과에 대한 책임귀속을 명확히 할 것인지 새로운 접근을 시도함으로써 형법의 보장적 기능을 충실히 수행할 수 있을 것으로 보인다.
약한 인공지능을 전제로 인공지능이 초래한 결과에 대해 형법의 적용 가능성 살펴보더라도 인공지능의 독자적인 판단과 행위가 개입된다면 고의 뿐 만 아니라 주의의무위반 또는 예견가능성이 부정될 가능성이 높기 때문에 누구에게도 형사책임의 귀속이 어렵다. 그런데 향후 강한 인공지능이 출현한다면 행위와 결과는 존재하지만 책임 주체가 상실된 상황이 발생하여 무질서가 난무하게 될 수 있다. 그러므로 비록 인공지능이 자연인과 동일한 행위능력이 인정된다고 하지 않더라도 현행법상 자연인 아닌 법인을 처벌하고 있는 것과 같은 방법으로 사회적 필요에 의해 기능적으로 형벌 능력을 인정하는 방안을 생각해 볼 수 있을 것이다.
더 나아가 인공지능에 대한 인격성 확장 가능성이라는 측면에서 검토할 때, 근대 형법에서는 형법상 주체를 칸트의 실천이성을 바탕으로 자율성에 입각한 합리적·이성적인 판단 역량이 있는 자로 간주하고 있다. 그렇다면 자율적인 학습·판단·추론 능력과 이를 바탕으로 한 창조 능력까지 갖춘 인공지능을 단지 유기체가 아닌 기계라는 이유로 영원히 권리의무의 주체가 될 수 없다고 단정하기는 어려울 것이다. 역사적으로 권리의무의 주체가 점차 확대되어 온 것처럼 앞으로 인공지능에 대한 형사책임 능력을 인정할 가능성을 전혀 배제할 수 없을 것으로 생각된다.
인공지능이 기술적 특이점(singularity)을 거쳐 발전할 것이란 전문가들의 전망과 같이 인공지능의 개발에 있어서 종래와 선을 긋는 시기가 머지않아 도래할 것으로 여겨진다. 이러한 특이점이 온다면 과학기술뿐 만이 아니라 우리 사회를 구성하는 사상‧제도에 있어서도 변화가 올 것이다. 이미 인문학 분야에서는 현대 과학기술이 성취할 미래에 대한 준비적 대응으로 ‘특이점 인문학’에 대한 논의가 활발히 이루어지고 있다. 형법 또한 이러한 특이점으로의 변화에 예외로 남을 수는 없을 것이고, 인공지능이 성취할 미래에 대응하여 ‘특이점 법학’(Singularity Law)에 대한 논의를 생각하지 않을 수 없을 것이다.