본문

의료용 인공지능의 블랙박스 해독하기

과학기술발전

등록일  2019.12.10

조회수  216

기사. https://undark.org/2019/12/04/black-box-artificial-intelligence/

참고문헌: https://pubs.rsna.org/doi/10.1148/radiol.2019182716

참고문헌: https://www.bmj.com/content/364/bmj.l886.long

참고문헌: https://www.sciencedirect.com/science/article/pii/S2589750019301232

 

연구자들 사이에 딥러닝 도구가 어떻게 결정하는지에 대한 요청과 해석가능성(interpretability)에 대한 논쟁이 증가하고 있음.

 

-많은 기계학습 도구는 여전히 블랙박스이며, 최근 한 저널(BMJ Clinical Research)에는 블랙박스가 타당한 이유 없이 판결을 내린다는 지적이 실림.

-일부 어플리케이션에서는 모델이 어떻게 작동하는지 이해하는 것이 중요함.

-해석은 들어가는 데이터와 나오는 것 사이의 실제 연관성을 보여주지 않음.

-컴퓨터과학자들이 딥러닝 도구가 어떻게 작동하는지 보여줄 방법을 찾더라도, 의사들은 그 설명이 충분한지에 대하여 최종적으로 말할 것임. 의사들은 이론적인 정확성뿐만 아니라 시스템이 실제 세계에서 작동하는 것에 대해서도 알 필요가 있음.

-딥러닝 연구는 기존 의무기록의 적합한 수를 분석하는 것으로 시작해야 함.

-일각에서는 새로운 모델이 얼마나 잘 작동하는지 아는 사람이 한 명도 없다는 우려도 존재

-모델의 성능을 평가하기 위해서는 여전히 많은 작업이 필요함.