4차 산업혁명 시대 위험책임의 역할과 한계-인공지능 로봇에 의해 발생한 손해의 책임귀속을 고려하여
= Role and Limitations of Risk Liability in the Era of the 4th Industrial Revolution
- 저자[authors] 서종희
- 학술지명[periodical name] 사법
- 권호사항[Volume/Issue] Vol.1No.43[2018]
- 발행처[publisher] 사법발전재단
- 자료유형[Document Type] 학술저널
- 수록면[Pagination] 69-107
- 언어[language] Korean
- 발행년[Publication Year] 2018
초록[abstracts]
[Artificial intelligence (AI) is advancing rapidly, changing the way we live and work. From a statutory standpoint, the emergent issue is how to apply liability doctrines so as to resolve damages incurred by AI robots. That is, if decisions become automated using artificial intelligence, no one will be held responsible for any risk or negligence that may arise therefrom, unless liability can be imposed on AI robots. Establishment of fault liability requires the existence of a causal relationship between an AI robot’s actions and liable person, not to mention the cause attributable to said person. However, in practice, both are difficult to prove. In Korea, civil liability for unclear damages incurred may be established pursuant to Article 758 of the Civil Act, which provides for liability of possessor or owner of structure, etc., but there are obstacles to overcome. Against this backdrop, we need to consider whether to establish a risk liability rule to regulate artificial intelligence robots. This paper explores the above issue through shedding light on the following points: (i) determination of risks associated with AI robots by factoring in the futuristic aspects; (ii) establishment of primary risk liability against AI robot operators; and (iii) development of specific rules that are individually applicable given the unique features of various types of artificial intelligence.
Keywords: 4th Industrial Revolution, AI robots, tort, fault liability, risk liability, liability of structure, employer’s liability, product liability
인공지능(AI: Artificial Intelligence)이 과거 전적으로 인간만이 할 수 있었던 영역을 담당하면서, 사회의 모든 분야의 판도가 바뀌고 있다. 특히 책임법적으로는 향후 인공지능 로봇에 의해 발생한 손해를 어떠한 책임법리로 해결할 것인지가 문제 된다. 인공지능형 로봇에 의해 의사결정의 자동화가 이루어지면 로봇에게 책임능력 등이 인정되지 않는 한 어느 누구도 의사결정으로 초래한 위험이나 과실에 대한 책임을 지지 않을 것이다. 과실책임이 인정되기 위해서는 로봇 작동의 결과를 책임주체자의 행위와 연결 지어야 하며, 더 나아가 책임주체자의 귀책사유를 증명해야 하는데 이는 현실적으로 불가능하기 때문이다. 즉 인공지능에 의한 사고는 알고리즘의 오류 및 네트워크의 오류(바이러스 및 해킹)에서 발생하는 것이 일반적이므로 사고책임의 불명확성에 의해 귀책사유를 판단하기가 매우 어렵다. 우리의 경우에는 민법 제758조의 공작물책임 및 제조물책임법을 통해서도 불명확한 손해의 발생에 대한 책임을 누군가에게 귀속시킬 수도 있을 것이나, 극복해야 할 여러 가지 한계 등을 고려하면 쉬운 문제는 아니다. 이에 인공지능 로봇을 규율하는 위험책임규정의 신설 여부가 문제 된다. 본고에서는 이와 관련하여 위험책임규정 도입과 관련하여 논의가 필요한 부분을 고려하여 입법론적인 제언으로서 세 가지 점을 제시하였다. 첫째, 인공지능 로봇이 위험원에 해당하는지가 문제 되나, 위험성에 대한 판단은 현재의 시점이 아닌 잠재적이고 미래지향적인 측면을 고려할 필요가 있으며, 스스로의 자가학습능력을 가진 인공지능의 잠재적인 능력 및 변화가능성은 인간이 예측할 수 없다는 점에서 인공지능은 고도의 위험성을 가지는 것으로 볼 수 있을 것이다. 둘째, 위험책임을 인정하는 경우에 인공지능 로봇을 운영하는 자가 1차적인 책임을 져야 할 것이며, 운용자가 부담하게 되는 배상책임의 부담은 책임보험제도 및 기금제도를 통해 해결할 수 있을 것이다. 마지막으로, 위험책임규정을 도입하는 경우에는 일반규정이 아닌 개별규정을 통해서 다양한 유형의 인공지능 로봇이 가지는 특수성을 고려한 세부적인 기준 등이 제시되어야 한다.
주제어: 4차 산업혁명시대, 인공지능 로봇, 불법행위, 과실책임, 위험책임, 공작물책임, 사용자책임, 제조물책임]