인공지능 시대의 보안 패러다임과 책임구조의 변화 : 규범의 역할과 보안정책의 원칙
= Shift of security paradigm and responsibility structure in the age of artificial intelligence : the role of norms and principles of security policy
- 저자[authors] 윤상필
- 발행사항 서울 : 고려대학교 정보보호대학원, 2018
- 형태사항[Description] viii, 192 p. : 천연색삽화 ; 26 cm
- 일반주기명[Note] 지도교수: 권헌영
- 참고문헌: p. 179-188
- 학위논문사항[Dissertation] 학위논문(석사)-- 고려대학교 정보보호대학원: 정보보호학과 2018. 2
- 발행국(발행지)[Country] 서울
- 출판년[Publication Year] 2018
- 주제어 인공지능,보안,책임론,위험책임,안전성,신뢰성,자율 규범,전문가 윤리,공동체,데이터 관리
- 소장기관[Holding] 고려대학교 과학도서관 (211091)
초록[abstracts]
인공지능은 본질적으로 인간처럼 생각하는 컴퓨터를 표방하며 발전한 영역이다. 현재의 인공지능을 구현하는 인공신경망 개념은 이미 1943년에 등장하였으며 인공지능과 전문가 시스템은 1950년에서 1960년대에 정립된 개념이지만 기술적 환경이 이를 받쳐주지 못했다. 컴퓨터와 통신 기술의 지속적인 발전을 토대로 빅데이터와 사물인터넷, 클라우드 컴퓨팅과 모바일 기술이 발달하였다. 비로소 인공지능 기술이 빛을 발하고 있으며 사회의 각 분야에 빠르게 수용되고 있다. 앞선 여러 기술들을 받아들이는 과정이 그러하였듯 인공지능 기술을 받아들이는 과정에도 다양한 기대와 우려가 공존하고 있다.
 이러한 환경에서 보안은 기밀성, 무결성, 가용성과 함께 안전성을 보장해야한다. 인공지능은 그간의 기술과는 달리 사람의 완전한 통제를 벗어나고 사람의 영역을 대체하고 있다. 그 동안의 기술은 모두 사람이 완전히 통제할 수 있었지만 매우 극소한 정도이더라도 인공지능 기술은 사람의 통제를 벗어난다. 무엇보다 현재 인공지능 기술의 예측 및 분석 등 결과의 정확성이 90%에 이르면 매우 뛰어난 것으로 보고 있으나, 보안 분야에서는 이야기가 다르다. 예를 들어, 데이터와 트래픽이 기하급수적으로 증가하는 현상에서 인공지능 보안 시스템이 방대한 로그 중 90%를 정확히 식별해내더라도 10%의 오탐, 즉, 약 100만 개의 로그 중 10만 개가 오탐이라는 결과는 시스템에 치명적 결과를 안겨줄 수 있다. 이러한 점들로부터 발생하거나 발생할 것으로 보이는 위험에 대응하기 위해 예측가능성과 투명성, 공정성과 책임성 등이 요구되고 있는 것이며, 그 궁극적인 목적은 인류의 이익을 위해 기술을 사용할 수 있도록 신뢰성을 보장하고 그 구현을 위해 안전성을 확보하는 것이다. 이러한 요소들은 기술 표준을 통해 실현되며, 기술 표준은 법 규범과 연결되고, 법 규범은 윤리와 도덕이라는 기초 규범과 가치를 공유한다.
 기술을 활용하며 발생하는 문제 상황은 당해 문제의 원인을 제기한 자가 책임을 짐으로써 정리된다. 그런데 인공지능의 경우 그 과정이 녹록치 않다. 기존의 법체계에서 책임 주체를 식별하기 위해 요구되는 행위 주체와 책임 능력, 고의 또는 과실의 존부, 원인과 결과 사이의 인과관계를 명확히 식별할 수 없기 때문이다. 이러한 점에서 특정 기술을 활용하여 이익을 향유하거나 위험을 야기하는 자가 책임을 지도록 하는 보상책임, 이익책임이나 위험책임의 원리를 채용할 수 있으나, 현재 인공지능 기술은 그 정도의 이익이나 위험을 가져다주지 못한다. 즉, 단순히 데이터를 분석하는 정도 등 특정 분야에서 매우 세부적인 용도로 활용되고 있는 인공지능 기술로 인해 문제가 야기된 경우 당해 기술을 설계한 자나 활용한 자 등에게 과실의 여부를 묻지 않고 책임을 부여하는 것은 법익의 균형성을 해칠 수 있기 때문이다. 무엇보다 인공지능은 인간을 위한 기술이면서 인간의 영역을 침범하고, 법적 규제를 가하기에 아직 기술과 산업의 발전이 미진하며, 법을 넘어서 본질적인 규범으로 논의함으로써 관련 문제를 공론화할 수 있고, 실제 제도화 및 정책의 수립·집행 과정에서 고려할 수 있는 데이터를 확보할 수 있다. 따라서 인공지능에 관한 문제는 반드시 인간 중심의 관점에서 윤리와 도덕 중심의 윤리 강령이나 행동 강령 등 자율 규범으로부터 출발하여야 한다.
 결국 인공지능 시대의 보안 정책은 인공지능 기술의 사회적 활용성을 고려하여 인류 전체의 이익이라는 목적 실현을 위해 안전성과 신뢰성을 구현하여야 하며, 이를 위해 보안성과 책임성을 반드시 보장해야 한다. 관련 내용을 명시해야 하는 규범은 반드시 전문가 윤리와 함께 데이터는 정확하고 건전해야 한다는 데이터 관리의 내용을 다뤄야 하고, 규범과 정책의 수립은 공동체 의식에 기반하여 상향식으로 정립되고 하향식으로 시행되어야 한다. 나아가 조직과 구성원 간의 소통과 협력을 통해 인공지능 기술이 상용화되며 나타나는 새로운 보안 위협 요소에 대응하기 위해 주기적이고 유연하게 정책을 구현할 수 있어야 한다. 
 현재의 인공지능 수준은 아직 출발 단계, 혹은 그 정도에도 이르지 못한 것으로 보인다. 인공지능 보안 서비스의 현황을 살펴볼 때 인공지능 기술은 1티어 분석가들의 업무, 즉, 컴퓨터 화면 앞에 앉아 24시간 IDS, IPS, SIEM, 방화벽 및 엔드포인트 보호 장비로부터 확인되는 경보들을 해당 보안 업체 또는 당대 보안 기술의 수준으로 확인된 위협들을 명시한 매뉴얼에 따라 일일이 확인하여 상위 분석 조직에게 보고하는 업무를 대체하고 있다. 앞서 언급하였듯 인공지능 기술에 대한 신뢰성이 확보되는 경우 이처럼 단순하면서도 폭발적으로 증가하는 데이터 환경에서 중요한 위협 요소를 탐색해내야 하는 업무를 인공지능이 수행해 준다면 보안성은 확실히 제고될 수 있다. 그러나 이를 인간의 관점에서 바라보면 당해 인공지능 탐지 알고리즘을 설계하는 전문가는 최고의 전문성을 갖춰야 하며, 이러한 인공지능에 의해 대체되는 인력은 그 상위의 분석 업무를 수행함으로써 더욱 막중한 책임감을 가져야 할 것이다.