편향된 AI는 건강에 해로울 수 있다. - 알고리즘 공정성을 높이는 방법
※ 기사 [Biased AI can be bad for your health – here’s how to promote algorithmic fairness]
https://theconversation.com/biased-ai-can-be-bad-for-your-health-heres-how-to-promote-algorithmic-fairness-153088
인공지능은 의사(doctors)가 정확한 진단과 치료 결정을 내릴 수 있도록 도와줌으로써 인간의 건강을 증진시킬 수 있는 큰 가능성을 가지고 있다. 또한 인공지능은 소수자(minorities), 여성, 경제적 약자에게 해(harm)를 끼칠 수 있는 차별로 이어질 수 있다. 문제는 보건의료 알고리즘이 차별되는 경우에 사람들이 어디에 의지할 수 있는가?에 있다.
이러한 종류의 차별의 두드러진 예는 고위험 환자를 돌보기 위한 프로그램인 만성질환자에게 추천되는 알고리즘이다. 2019년의 한 연구에 따르면 알고리즘은 이렇게 유익한 서비스에 환자를 선별할 때 아프리카계 미국인 환자보다 백인 환자를 선호하는 것으로 나타났다. 왜냐하면 의료수요의 대용(proxy)으로 과거에 사용한 의료비(medical expenditures)를 사용했기 때문이다. 빈곤과 보건의료의 접근에 대한 어려움으로 아프리카계 미국인들은 다른 사람들에 비해 보건의료에 많은 돈을 지출할 수 없다. 이 알고리즘은 아프리카 미국인들의 낮은 의료비 지출이 그들이 건강하다는 것을 나타내는 것으로 잘못 해석했고, 결정적으로 그들에게 필요한 지원을 박탈하였다.
법학 및 생명윤리학 교수 Sharona Hoffman(샤로나 호프만)은 이 문제를 분석하여 해결할 수 있는 방법을 찾아냈다.
알고리즘 공정성 제고
알고리즘 편향을 해결하기 위한 몇 가지 방법이 있다.
- 소송(litigation), 규제(regulation), 입법(legislation) 및 모범 사례(best practices)
1. 차별 구제 소송(Disparate impact litigation): 알고리즘 편향은 의도적인 차별을 구성하지 않는다. AI 개발자와 AI를 사용하는 의사들이 환자에게 해를 끼치지는 않을 것 같다. 대신 AI는 소수민족이나 여성에게 이질적인 영향을 끼쳐 의도하지 않게 차별로 연결될 수 있다. 고용 및 주거분야에서 차별을 받았다고 느끼는 사람들은 차별 구제 소송으로 소를 제기할 수 있다. 그러나 법원은 개인 당사자가 보건의료 사건에 대해 차별 효과에 대해 소송을 제기할 수 없다고 판단했다. AI시대에 이 접근 방식은 별 의미가 없다. 고소인은 의도하지 않은 차별을 초래하는 의료행위에 대해 소송을 제기할 수 있어야 한다.
2. 미국 식품의약국 규제(FDA regulation): 미국 식품의약국은 보건의료 관련 AI의 규제 방법을 논의하고 있다. 현재 일부 AI를 규제하고 있다. 식품의약국이 AI를 감독하는 한, AI시스템이 승인을 받기 전에 편견과 차별 문제를 감지하고 해결되도록 해야 한다.
3. 알고리즘 책임법(Algorithmic Accountability Act): 2019년 Cory Booker 상원 의원, Ron Wyden 및 Yvette D. Clarke 의원은 알고리즘 책임법을 도입했다. 부분적으로는 기업이 사용하는 알고리즘을 연구하고, 편견을 파악하고, 발견한 문제를 수정하도록 요구하는 내용이었다. 이 법안은 법률로 통과되지 않았지만 좀 더 성공적인 미래의 입법을 위한 길을 열었다.
4. 더 공정한 AI 만들기(Make fairer AIs): 의료 AI 개발자와 사용자는 알고리즘 공정성에 우선순위를 둘 수 있다. 공정성은 의료 AI 시스템을 설계, 검증 및 구현하는 데 있어 핵심 요소여야 하며, 보건의료 제공자는 이러한 시스템을 선택하고 사용할 때 공정성을 염두에 두어야 한다.
의료 분야에서 AI는 점점 일반화 되고 있다. AI 차별은 많은 환자들에게 피해를 줄 수 있는 심각한 문제이고, 이를 인식하고 해결하는 것은 기술과 보건의료 분야 종사자들의 책임이다.
- 첨부파일
- 이미지 [메인사진]국가생명윤리정책원.PNG (43.7KB / 다운로드 68)