발행년 : | 2019 |
---|---|
구분 : | 국내학술지 |
학술지명 : | 저스티스 |
관련링크 : | http://www.riss.kr/link?id=A106102663 |
인공지능과 차별 = Artificial Intelligence and Discrimination
저자[authors] 고학수(Haksoo Ko),정해빈(Hae Bin Jeong),박도현(Dohyun Park)
학술지명[periodical name] 저스티스
권호사항[Volume/Issue] Vol.-No.171[2019]
발행처[publisher] 한국법학원
자료유형[Document Type] 학술저널
수록면[Pagination] 199-277
언어[language] Korean
발행년[Publication Year] 2019
주제어[descriptor] 인공지능,규제,알고리즘,차별,불투명성,적법절차,Artificial intelligence,Algorithmic discrimination,Opacity,Technological due process
국문 초록[abstracts]
인간이 인공지능을 사용할 때 발생하는 차별은 법적으로 어떻게 취급되어야 하는가? 현재 널리 사용되는 ‘딥러닝(deep learning)’ 인공지능은 범용적 문제해결이 가능한 판단주체가 아니며, 과거의 데이터를 통계적으로 재조직하는 고도화된 분석도구라 할 수 있다. 적어도 현재의 인공지능 기술은 인간의 판단을 전반적으로 대신하는 것이라 보기 어렵다. 인공지능과 관련된 차별 문제에 대한 법적 규율은, 인공지능의 훈련과정에서 어떤 데이터가 이용되는지 그리고 어떻게 알고리즘이 구축되는지 등에 관한 구체적인 사항에 집중할 필요가 있다. 이는 사법적 판단을 통한 사후적 규율과 규제를 통한 사전적 규율에 대해 여러 쟁점을 야기하는데, 이 글에서는 쟁점들을 세 그룹으로 나누어 분석한 뒤 각각에 대해 잠정적 견해를 제시한다. 첫째로, 인간에게는 차별의도가 없었음에도 인공지능 학습에 활용된 데이터에 과거의 차별적 요소가 반영되어 있었던 탓에 인공지능을 활용한 의사결정이 차별을 발생시킨 경우, 배상책임의 귀책사유 인정이 어려울 수 있다. 둘째로, 인공지능의 학습 및 판단방식은 제도적으로 영업비밀인데다 본질적으로 인간이 이해하기 어렵고, 현실적으로 처리방식을 사법절차를 통해 재현하기도 용이하지 않을 수 있다. 이들은 재판을 통한 사후적 차별구제에서 각각 실체법, 절차법적으로 쉽지 않은 문제를 야기한다. 셋째로, 딥러닝 인공지능은 차별이 반영된 과거의 데이터들을 경로의존적으로 재생산하기 때문에 차별구조를 질적으로 악화시킬 수 있다. 그러나 가능한 대안이 무엇인지는 명확하지 않다. 데이터 및 알고리즘에 대한 사전적 통제 및 개인의 이의권 보장 등이 고려될 수 있으나, 이러한 방식은 대체로 현실성이 높지 않고 일반론적인 투명성을 과도하게 강조함으로써 개인정보나 사생활의 권리를 침해할 수도 있다. 인공지능과 차별에 관한 법제도적 규율의 문제는, 어떤 데이터를 얼마나 상세한 수준에서 이용할 수 있는지, 그 과정에 나타날 수 있는 통계적 편향 등의 문제를 어떻게 해결할 것인지에 관한 이론적인 동시에 실무적인 다양한 이슈들을 새로이 제기한다. 인공지능에 대한 차별 맥락에서의 규율은, 차별금지의 일반적 원칙, 행정절차에 대한 투명성 원칙, 개인정보보호 원칙 등 여러 법정책적 목표들이 복잡하게 중첩되어 고려되는 영역이어서 더욱 입체적인 분석이 필요하다.
다국어 초록[Multilingual Abstract]
How should the discrimination that arises when humans use the artificial intelligence be treated legally? The widely used ‘deep learning’ artificial intelligence is not a generalizable problem solver, but it is a sophisticated analytical tool that statistically reorganizes historical data. At present, it is difficult to say that the current artificial intelligence technology is a substitute for human judgment as a whole. The legal discipline for the discrimination related to the artificial intelligence needs to focus on specifics on what data are used in the training of the artificial intelligence and how the algorithms are built. This leads to various legal and regulatory issues. First, even though human beings have no intention to discriminate, training data used for the artificial intelligence training may reflect past discriminatory factors, so that when decisions are made using artificial intelligence, such decisions may also reflect or even amplify the discrimination. Second, the relevant algorithm may well constitute trade secrets. Third, even if the algorithm is disclosed, it could be inscrutable, and, further, reproduction of the previous algorithmic decisions may not be possible since the algorithms and/or data may be frequently updated or modified. These factors give rise to difficulties in substantive law as well as in procedural law. Fourth, ‘deep learning’ may exacerbate discrimination because it tends to reflect or even exaggerate biases contained in the training data in a path-dependent way.
목차[Table of content]
논문요지 Ⅰ. 논의의 출발점 Ⅱ. 인공지능의 개념과 특성 Ⅲ. 법적 의미의 차별 Ⅳ. 인공지능 그리고 차별 Ⅴ. 인공지능 차별 관련 사례검토 : 소비자대출 Ⅵ. 남은 문제들 : 결론을 대신하여 〈참고문헌〉 〈Abstract〉