인공지능에 의한 차별과 그 책임 논의를 위한 예비적 고찰
= The preliminary consideration for Discrimination by AI and the responsibility problem - On Algorithm Bias learning and Human agent
- 저자[authors] 허유선(Heo, Eu-Sun)
- 학술지명[periodical name] 한국여성철학
- 권호사항[Volume/Issue] Vol.29No.-[2018]
- 발행처[publisher] 한국여성철학회
- 자료유형[Document Type] 학술저널
- 수록면[Pagination] 165-209
- 언어[language] Korean
- 발행년[Publication Year] 2018
- 주제어[descriptor] 인공지능,차별,책임,알고리즘,편향성,인간 행위자,AI(Artificial Intelligent),discrimination,responsibility,algorithm,bias,human agent
초록[abstracts]
[이 글은 인공지능에 의한 차별과 그 책임 논의를 철학적 차원에서 본격적으로 연구하기에 앞선 예비적 고찰이다. 인공지능에 의한 차별을 철학자들의 연구를 요하는 당면 ‘문제’로 제기하고, 이를 위해 ‘인공지능에 의한 차별’이라는 문제의 성격과 원인을 규명하는 것이 이 글의 주된 목적이다. 인공지능은 기존 차별을 그대로 반복하여 현존하는 차별의 강화 및 영속화를 야기할 수 있으며, 이는 먼 미래의 일이 아니다. 이러한 문제는 현재 발생 중이며 공동체적 대응을 요구한다. 그러나 철학자의 입장에서 그와 관련한 책임 논의를 다루기는 쉽지 않다. 그 이유는 크게 인공지능의 복잡한 기술적 문제와 전통적 책임 개념의 한계라 할 수 있다. 여기서는 특히 인공지능과 관련된 기술적 개념을 중심으로 문제를 파악하고, 이와 관련하여 인간 행위자의 책임 및 그 역량을 규명한다. 통칭 인공지능으로 이해되는 것은 알고리즘에 기반한 자동화 시스템이며, 알고리즘의 편향성이 인공지능에 의한 차별을 야기할 수 있다. 알고리즘이 겉보기에 인간 행위자와 독립적으로 작동하는 것처럼 보일지라도, 인간 행위자가 그에 개입하고 있음을 밝힌다. 인간 행위자가 편향된 입력 자료를 사용하거나 편향된 설계를 할 수 있다는 점에서, 알고리즘의 편향성은 인간 행위자의 편향성과 불가분의 관계이기 때문이다. 그러므로 인간 행위자는 인공지능에 의한 차별문제에 대응할 책임이 있으며, 책임 역량을 갖고 있다. 마지막으로 인공지능에 의한 차별 논의를 위한 철학 연구의 추후 과제를 정리한다.
This essay is a preliminary consideration for further arguments on the discrimination by AI (Artificial Intelligence) and the responsibility. The main purpose is of the essay is to show that “the discrimination by AI and the responsibility” is an urgent philosophical problem (challenge?) and to understand its cause and the characters. AI can repeat the existing discrimination and contribute its exacerbation as well as perpetuation. We are already facing this problem and need to find how to respond it in community-level. But it is not simple for philosophers to deal with the responsibility. It is due to the technical complexity of AI and the limited scope of traditional responsibility. This essay will focus on identifying the issues around AI‘s technical concept and thereby argue on the human agent’s responsibility and the competence. So-called AI generally means automated system based on algorithm which has possibility in its inherent bias to cause discrimination by AI. This essay will suggest that human agent is engaged in the operation of algorithm by one’s act even though it seems to work independent from human agent. Given the fact that human agent can use biased data when input or practice biased design, the bias proven in algorithm is inseparable from one found in human agent. Therefore, human agent is responsible and has competence to respond against the discrimination practiced by AI. In conclusion, the essay will propose philosophical tasks needed to further discuss.]
목차[Table of content]
요약문 1. 논의의 배경과 목적 2. 인공지능에 의한 차별 및 책임 문제를 논하는 철학적 접근의 어려움: 복합적 시스템으로서 현대기술과 책임 귀속 3. 문제의 이해: 인공지능 기술과 알고리즘 4. 알고리즘의 편향성 학습과 인간 행위자의 관계 5. 알고리즘 편향성과 인간 행위자의 책임 6. 추후 과제: 새로운 문제와 기회, 철학의 역할 참고문헌 Abstract