인공지능(AI)이 어떤 배아를 출생시킬지를 선택하는 것에 대한 윤리적 우려
# 기사 1 https://www.nationaltribune.com.au/ethical-concerns-over-ai-choosing-which-embryos-may-be-born/
# 참고 1 https://pubmed.ncbi.nlm.nih.gov/39657965/
모나쉬 대학교(Monash University) 연구진은 인공지능(AI)을 활용한 난임 치료가 중요한 윤리적 문제를 동반하며, 이를 해결해야 한다고 밝혔다. 머신 러닝(machine learning) 도구는 배아 이식을 위한 선택 과정을 개선하여 성공적인 임신 가능성을 높이고 치료에 소요되는 시간과 비용을 줄이는 데 기여할 수 있지만, 환자의 비인간화, 알고리즘 편향, 투명성, 공정한 접근성 등 다양한 우려가 제기되고 있다.
이러한 윤리적 우려가 머신 러닝 도구를 배아 평가에 사용하는 것을 완전히 배제하지는 않지만, 임상 결과에 대한 책임을 어떻게 관리할지, 이러한 도구를 어떻게 모니터링할지, 그리고 그 사용을 환자들에게 어떻게 전달할지에 대한 신중하고 숙고된 결정이 필요하다. 인공지능 배아 평가 도구는 배아의 이미지 및/또는 동영상을 분석하여 배아의 품질을 예측하는 방식으로 작동한다.
이러한 도구는 이미 배아학자의 평가와 함께 사용되고 있으며, 향후 인간의 평가를 완전히 대체할 가능성도 있다. 초기 연구에 따르면 인공지능은 인간 배아학자보다 뛰어난 성능을 발휘하고, 일관된 배아 평가를 제공하며, 평가 시간을 크게 단축할 수 있다. 연구진은 이 기술이 적절하게 사용되고 공공 신뢰를 유지할 수 있도록 윤리적, 사회적, 규제적 문제에 대한 깊은 이해가 시급히 필요하다고 주장한다.1)
<배아 평가에서 인공지능(AI)의 윤리: 전반적 논의와 탐색>2) * 비인간화: 인공지능의 주요 우려 중 하나는 그 사용이 인간성을 상실시키는(비인간화) 효과를 가져올 수 있다는 점이다. ‘비인간화’라는 용어가 암시하듯, 컴퓨터 알고리즘이 인간에게 마땅한 배려를 제공하지 못할 수 있다는 우려를 포함한다. 의료 분야에서도 비슷한 우려가 제기되고 있으며, 많은 소비자는 환자를 숫자로 환원하는 것이 그들의 중요한 특성을 놓칠 수 있다고 걱정한다. 이 우려는 종종 ‘고유성 무시’라는 용어로 설명되며, 이는 알고리즘이 의학에서 요구되는 충분한 존중을 제공하지 못한다고 보는 믿음을 반영한다. * 편향: 인공지능 시스템이 의도치 않은 편향을 보일 수 있다는 위험은 이제 널리 알려져 있다. 이러한 편향은 다양한 형태로 나타날 수 있다. 예를 들어, 머신 러닝 알고리즘이 특정 그룹(예: 인종)에 대해 다른 그룹보다 더 잘 작동할 수 있으며, 이는 인공지능 알고리즘이 훈련된 데이터 셋에서 이러한 그룹이 얼마나 잘 대표되는지에 따라 달라질 수 있다. * 책임: 머신 러닝 도구와 관련된 반복적인 우려 중 하나는 ‘책임 공백’을 초래할 수 있다는 점이다. 이는 부정적인 결과에 대해 책임질 적절한 인간 주체를 찾기 어려워지는 상황을 의미한다. 머신 러닝 도구는 특정 작업을 수행하는 방법을 주로 스스로 ‘학습’하므로, 이는 프로그래머/제조자나 인간 운영자/감독자의 완전한 통제 하에 있지 않을 수 있다. 따라서 머신 러닝 도구는 관련자 누구도 합리적으로 예측할 수 없었던 방식으로 예상치 못한 결과를 초래할 수 있다. * 투명성과 설명 가능성: 인공지능 윤리 및 컴퓨터 과학 연구에서는 ‘투명성’, ‘해석 가능성’, ‘설명 가능성’이라는 용어가 다양한 방식으로 사용되며 때로는 모순적으로 정의된다. 인공지능 윤리에서 투명성과 관련된 주요 우려는 두 가지로 나뉜다. 하나는 인공지능 알고리즘이 특정 결정을 내린 이유를 이해할 수 있는지 여부이고, 다른 하나는 인공지능이 사용되었다는 사실을 알고 있는지 여부이다. 두 가지 우려 모두 우리의 삶에 중요한 결정을 이해할 수 없는 방식으로 내리는 것에 대한 반발에서 비롯된다. 그러나 이 두 가지 경우에 관련된 투명성의 유형과 이를 달성하기 위해 필요한 것들은 서로 다르다. * 기술적 저하: 의료 인공지능은 제대로 작동한다면 임상 의사결정을 개선할 수 있다. 인공지능이 인간보다 더 나은 성과를 낼 경우, 의사들이 인공지능 시스템에 의존하고 이를 따르게 되는 것은 이해할 수 있다. 그러나 이는 종종 ‘기술 저하’라고 설명되는 현상을 통해 임상 기술의 저하로 이어질 수 있다. 기술 저하에 대한 우려는 특히 머신 러닝 배아 평가와 관련이 깊다. 머신 러닝 평가 도구가 업계 전반에 걸쳐 동일하게 채택되지 않을 가능성이 높기 때문이다. 기술 저하는 머신 러닝 도구에 의존하던 배아학자가 배아를 수동으로 평가해야 하는 상황에서 더 나쁜 결과를 초래할 수 있다. 기술 유지 또한 기술이 실패하는 경우 중요한 안전장치가 될 수 있다. 기술 저하는 배아학자가 머신 러닝 권고를 검토하거나 이에 대한 감독을 제공해야 할 때, 또는 최종 의사결정 책임이 그들에게 맡겨질 경우 그들의 역할 수행을 방해할 수 있다.
|