본문

편견, 불평등, 프라이버시 침해 ​​해결 - AI 윤리 및 거버넌스에 대한 새로운 WHO 지침 발표

과학기술발전

등록일  2024.01.26

조회수  533

#기사: https://healthpolicy-watch.news/tackling-bias-inequality-lack-of-privacy-new-who-guidelines-on-ai-ethics-and-governance-are-released/

 

#참고1: WHO releases AI ethics and governance guidance for large multi-modal models

#참고2: Ethics and governance of artificial intelligence for health: Guidance on large multi-modal models

#참고3: Ethics and governance of artificial intelligence for health

 

세계보건기구(World Health Organization, 이하 WHO)는 의료분야에서 자주 사용되는 생성형 AI의 일종인 대규모 멀티모달 모델(Large Multimodal Models, 이하 LMM)*에서 인공지능(AI)의 윤리 및 거버넌스에 대한 새로운 지침을 발표했습니다.

 

*LMM이란?

LMM은 텍스트 뿐만 아니라 이미지, 오디오, 비디오와 같은 다른 형태의 데이터도 학습하고 생성할 수 있는 인공지능 모델임. 거대언어모델(Large Language Model, 이하 LLM)의 학습 데이터가 언어모델이라면, LMM은 보고 듣고 말할 수 있어, 인물의 표정을 읽거나, 엑스레이 이미지를 보고 질병의 진단이 가능한 일종의 생성형 AI.

(THE AI, 사람처럼 보고 듣고 말하는 ‘LMM’ 시대 온다 참고)

 

이번 지침에는 정부는 물론 기술 회사, 의료 서비스 제공업체 등 기타 행위자를 위한 40가지 권장 사항*이 포함되어 있습니다. 책임 있는 AI 사용에 대한 2021WHO 지침을 기반으로 제정된 이번 지침은 최신 기술 발전과 이로 인해 발생할 수 있는 문제들을 고려합니다.

 

* 정부 주요 권장 사항

(WHO releases AI ethics and governance guidance for large multi-modal models 참고)

정부는 공공, 민간 및 비영리 부문의 개발자가 접근할 수 있는 컴퓨팅 기능과 공개 데이터셋을 구축하고, 사용자가 여기에 접근할 수 있는 자격을 얻기 위해 윤리적 원칙과 주요 가치를 준수하도록 요구하는, 비영리 또는 공공 인프라에 투자하거나 그러한 인프라를 제공한다.

AI 기술의 위험이익 관계없이 의료에 사용되는 LMM 및 애플리케이션이 인간의 존엄성, 자율성 또는 프라이버시에 영향을 미치는 윤리적 원칙과 인권 관련 사항을 충족하도록 법률, 정책 및 규정을 적용한다.

재원이 허용하는 한에서 기존 또는 신규 규제 기관을 지정하여 의료분야에 사용하기 위한 LMM 및 애플리케이션을 평가하고 승인한다.

LMM이 대규모로 배포되는 경우, 독립적인 제3자에 의한 데이터 보호와 권리 보호를 포함하여, 출시 후 감사 및 영향 평가를 도입한다. 감사 및 영향 평가는 공개되어야 하며, 여기에는 연령, 인종, 장애 등 이용자별로 분류하여 그 평가 결과가 포함되어야 한다.

 

* LMM 개발자 대상 주요 권장 사항

LMM은 과학자와 엔지니어만이 설계한 것은 아니다. 따라서 의료 제공자, 과학 연구자, 의료 영역에 전문가 및 환자를 포함한 잠재적 사용자와 모든 직간접 이해관계자를 AI 개발의 초기 단계부터 구조화되고 포괄적이며 투명한 설계 단계부터 참여시켜야 하고, 그들에게 윤리적인 문제를 제기하고 우려 사항을 표명하고 검토 중인 AI 애플리케이션에 대하여 의견을 제시할 수 있는 기회를 제공해야 한다.

LMM에 필수적인 정확성과 신뢰성을 바탕으로 의료 시스템의 역량 향상과 환자의 관심을 증진시킬 수 있도록 설계된다. 또한 개발자는 잠재적인 2차 결과를 예측하고 이해할 수 있어야 한다.

 

WHO의 수석 과학자인 Jeremy Farrar 박사는, “더 나은 보건 체계를 마련하고 지속적인 건강 불평등을 극복하기 위해 LMM의 설계, 개발 및 사용을 관리하는 투명한 정보와 정책이 필요하다.”라고 말합니다.

다른 새로운 기술과 마찬가지로 LMM도 부적절하게 사용할 경우 상당한 위험을 내포하고 있습니다. 하지만 Farrar, "새로운 기술을 두려워해서는 안 되며, 오히려 새로운 기술에 대해 책임을 지는 것이 중요하다"라고 강조합니다.

 

정확성과 신뢰성의 한계

LMM의 산출물 역시 여전히 정확성과 신뢰성에 있어 한계가 있습니다. AI 분야의 대부분 리소스는 영리 기업에 달려 있기 때문에, LMM의 예측은 설계자에게 유익한 솔루션 쪽으로 치우칠 수 있습니다. 이러한 함정에도 불구하고 LMM을 사용하면 시스템의 권장 사항을 지나치게 신뢰할 위험이 있습니다.

 

기존에 위험을 줄이기 위하여 새로운 WHO 지침에서는 책임 있는 LMM 사용을 보장하기 위한 정책과 모범 사례를 제안합니다. 이 지침의 입안자들은 제품의 투명성, 포용성 및 우려 사항을 표명하는 것에 중점을 두고 설계 단계부터 모든 관련 행위자를 포함하는 것이 중요하다고 강조합니다.

 

이번 지침은 정부가 LMM 사용을 감사 및 모니터링하고 신뢰성과 정확성 표준이 충족되는지 확인하도록 권장하고 있습니다. 예를 들어 개인의 존엄성, 자율성 또는 개인 정보 보호에 영향을 미치는 경우 LMM이 국가 및 국제법을 준수하는지 확인해야 합니다.

 

WHO 디지털 건강 및 혁신 부서의 Alain Labrique모든 국가의 정부는 LMM과 같은 AI 기술의 개발과 사용을 효과적으로 규율하기 위해 주도적인 역할을 해야 한다.”라고 말합니다.