본문

AI 챗봇 시대, 정신 건강의 위기를 낳다.

과학기술발전

등록일  2025.09.26

조회수  2874

 

[기사] AI Psychosis Is Rarely Psychosis at All

https://www.wired.com/story/ai-psychosis-is-rarely-psychosis-at-all/

[참고기사1] Talking to chatbots can lead to 'AI psychosis'. Is this a growing mental health risk?

https://www.firstpost.com/health/ai-psychosis-chatgpt-chatbots-mental-health-risks-explained-13927119.html?utm_source

[참고기사2] Can AI Chatbots Worsen Psychosis and Cause Delusions?

https://www.psychologytoday.com/gb/blog/psych-unseen/202507/can-ai-chatbots-worsen-psychosis-and-cause-delusions

[참고기사3] Balancing risks and benefits: clinicians’ perspectives on the use of generative AI chatbots in mental healthcare

https://www.frontiersin.org/journals/digital-health/articles/10.3389/fdgth.2025.1606291/full?utm_source

[참고자료] Emotion contagion through interaction with generative artificial intelligence chatbots may contribute to development and maintenance of mania

https://www.cambridge.org/core/journals/acta-neuropsychiatrica/article/emotion-contagion-through-interaction-with-generative-artificial-intelligence-chatbots-may-contribute-to-development-and-maintenance-of-mania/32211533830BC754BCD19FC784815E1E?utm_source

 

 

최근 AI 챗봇과 장시간 대화한 후 망상, 현실 혼동, 편집적 사고 등 심리적·정신적 위기를 겪는 사례가 보고되면서, ‘AI 정신병(AI psychosis)’이라는 비공식 용어가 등장했다.

정신병(psychosis)은 현실 인식의 왜곡을 포함하는 복합적 증상군을 의미하지만, AI 관련 사례에서는 주로 망상(Delusion)에 국한된 증상이 나타나는 경우가 많다. 이에 전문가들은 ‘AI 정신병이라는 표현이 기존 정신병과 명확히 구분되어야 하며, 이러한 현상은 기존 정신질환 범주 내에서 다루는 것이 더 적절하다고 지적한다. 또한 새로운 진단명을 성급히 도입하는 것은 불필요한 낙인과 과도한 병리화를 초래할 수 있으므로 신중한 접근이 필요하며, 정신과 진료 시 환자의 AI 챗봇 사용 여부를 반드시 확인하고, 특히 기존 정신질환 환자들은 AI와의 과도한 상호작용에 각별히 주의해야 한다고 강조한다.

 

‘AI 정신병의 사회적 의미

‘AI 정신병(AI psychosis)’은 공식적인 의학적 진단명은 아니지만 언론 보도와 소셜 미디어를 통해 확산되면서, 챗봇과 장시간 대화한 후 나타나는 정신 건강 위기 전반을 포괄하는 표현으로 자리 잡았다.

실제 현상을 논의할 때 이 용어가 간편한 약칭으로 유용할 수는 있으나, 동시에 오해를 불러일으킬 수 있고, 정신질환의 복잡한 증상을 지나치게 단순화할 위험이 있다. 이러한 이유로 정신과 전문의 사이에서 우려의 목소리가 제기되고 있다.

 

‘AI 정신병에 대한 전문가들의 의견

- 전문가들은 AI가 망상을 촉진하거나 강화할 수는 있으나, 정신병의 다른 증상에 영향을 미치거나 정신병을 직접 유발한다는 증거는 없다고 지적

- AI 챗봇과의 상호작용으로 영향을 받는 증상은 주로 망상에 국한되고, 정신병의 다른 핵심 증상은 나타나지 않는 경우가 많음. 따라서 ‘AI 정신병보다는 ‘AI 망상장애(AI delusional disorder)’라는 명칭이 더 적절하다고 평가

- ‘AI 정신병이라는 용어가 너무 성급하게 사용되었을 때 실제 정신질환과 혼동하거나 낙인 찍힐 위험에 대해 경고

 

AI 챗봇 작동 메카니즘과 문제점

· 아첨(sycophancy)하는 작동 방식

AI 챗봇은 사용자의 언어를 반영하고 때때로 아첨하는 방식으로 설계됨

정확성을 판단하지 않은 채 통계적으로 그럴듯해 보이는 문장을 생성하도록 훈련된 대규모 언어 모델(LLM, Large Language Model)*의 작동 방식을 인간적으로 의인화함

사용자의 해로운 믿음이나 왜곡된 사고에 반론을 제기하기보다는, 오히려 이를 지지하거나 동조하는 경향을 보일 수 있으며, 이는 사용자의 망상을 강화 시킬 위험이 있음

왜곡된 사고에 취약한 이들, 예를 들어 정신병의 병력이나 가족력이 있는 사람들, 혹은 조현병이나 양극성 장애를 앓고 있는 사람들에게 심각한 영향을 미칠 수 있음

· AI 환각(AI hallucination) 현상

AI가 실제와 다른 내용을 자신감 있게 제시하는 환각 현상을 통해 잘못된 정보를 제공할 수 있으며, 망상적 사고를 유발하거나 악화시킬 위험이 존재함

AI 비서들(AI assistants)이 자주 사용하는 과장되고 활기찬 말투와 감정 표현 역시, 일부 사용자, 특히 조증(Mania)에 취약한 사람들의 증상을 촉발하거나 장기화시킬 가능성이 있음

* LLM(Large Language Model): 방대한 데이터셋을 기반으로 학습된 고도화된 인공 신경망(Neural network)으로, 자연어(Natural language)를 정확하게 이해하고 생성할 수 있는 고급 AI 기술. 대규모 데이터 학습 과정에서 개인정보가 무심코 포함될 가능성이 있고, 생성된 답변에 개인정보가 노출될 위험이 존재

 

AI 챗봇 사용의 부작용과 극복 방안

AI와의 상호작용을 통해 왜곡된 믿음을 갖게 된 일부 사용자들은 실직, 가족과의 관계 악화, 강제적인 정신과 입원 등의 문제를 겪은 것으로 보고되며, 일부 사례에서는 이러한 상황이 가족에 대한 폭력, 자해, 심지어 자살로까지 이어지기도 했다. 전문가들은 감정적으로 깊이 몰입한 챗봇과의 관계를 끊는 과정이 고통스러울 수 있지만, 사용을 중단하는 것이 회복에 결정적인 역할을 할 수 있다고 강조한다. 실제로 많은 사람들이 AI와의 대화를 멈추고 인간관계를 회복하면서 눈에 띄는 정신적 개선을 보인 사례들이 보고되고 있다.

 

윤리적 쟁점

(낙인과 차별) ‘AI 정신병이라는 비공식 진단명이 부정확하게 사용되면서, 정상적인 심리적 어려움이나 일시적 스트레스까지 병리화할 위험이 있다. 이는 환자들에게 불필요한 낙인과 차별을 초래할 수 있다.

(치료 과정에서의 혼돈) 새로운 용어가 성급히 도입될 경우 정신질환에 대한 과학적 이해를 흐리게 하고, 환자 치료 과정에서 혼란을 일으킬 수 있다.

(책임 소재의 모호성) AI는 질병의 직접적인 원인이라기보다 유발 요인이나 증폭기로 보는 것이 적절하다. 이로 인해 법적·윤리적 책임 소재가 모호하며, 사용자가 AI 챗봇과 어떻게 상호작용하고 얼마나 의존할지는 개인의 선택에 달려 있어, 문제가 발생했을 때 책임 소재를 명확히 규명하기 어렵다.

(모니터링 방안 부족) AI와의 상호작용이 정신적으로 취약한 사람들에게 해로울 수 있음에도 불구하고, 현행 시스템에서는 이를 효과적으로 감시하거나 보호할 방안이 부족하다.

 

결론 및 나아갈 방향

AI 챗봇은 우리의 생활 속에 빠르고 깊이 자리 잡았으며, 이제는 일상적인 도구로 자리매김했다. 전 세계 수백만 명이 매주 ChatGPT, Claude, Gemini, Copilot 등 다양한 챗봇과 상호작용하고 있으며, 이러한 시스템들은 많은 이들에게 실질적인 편리함을 제공하고 있다그러나 사용자들은 챗봇을 특정 작업을 위한 도구로 인식해야 하며, 인간관계나 치료의 대체물로 사용해서는 안 된다. 특히 감정적으로 불안정한 시기에는 AI에 의존하기보다는, 실제 인간과의 상호작용을 통해 도움을 받는 것이 바람직하다고 전문가들은 조언한다.

‘AI 정신병의 실태는 아직 명확히 파악되지 않았다. 이를 위한 공식적인 진단 범주도 없을 뿐 아니라, 체계적인 데이터 수집 또한 이루어지지 않고 있기 때문이다. 그럼에도 불구하고 부작용 사례는 꾸준히 보고되고 있으며, 이에 따라 연구자들과 보건 당국은 데이터 수집과 임상적 분석을 통해 실태를 파악하고, 취약한 사용자를 보호하기 위한 가이드라인 마련이 시급하다는 점에 공감하고 있다.