의료용 인공지능의 블랙박스 해독하기
※ 기사. https://undark.org/2019/12/04/black-box-artificial-intelligence/
참고문헌: https://pubs.rsna.org/doi/10.1148/radiol.2019182716
참고문헌: https://www.bmj.com/content/364/bmj.l886.long
참고문헌: https://www.sciencedirect.com/science/article/pii/S2589750019301232
연구자들 사이에 딥러닝 도구가 어떻게 결정하는지에 대한 요청과 해석가능성(interpretability)에 대한 논쟁이 증가하고 있음.
-많은 기계학습 도구는 여전히 블랙박스이며, 최근 한 저널(BMJ Clinical Research)에는 블랙박스가 타당한 이유 없이 판결을 내린다는 지적이 실림.
-일부 어플리케이션에서는 모델이 어떻게 작동하는지 이해하는 것이 중요함.
-해석은 들어가는 데이터와 나오는 것 사이의 실제 연관성을 보여주지 않음.
-컴퓨터과학자들이 딥러닝 도구가 어떻게 작동하는지 보여줄 방법을 찾더라도, 의사들은 그 설명이 충분한지에 대하여 최종적으로 말할 것임. 의사들은 이론적인 정확성뿐만 아니라 시스템이 실제 세계에서 작동하는 것에 대해서도 알 필요가 있음.
-딥러닝 연구는 기존 의무기록의 적합한 수를 분석하는 것으로 시작해야 함.
-일각에서는 새로운 모델이 얼마나 잘 작동하는지 아는 사람이 한 명도 없다는 우려도 존재
-모델의 성능을 평가하기 위해서는 여전히 많은 작업이 필요함.