미국 청소년들의 AI 컴패니언 사용, 새로운 디지털 교류의 명과 암
□ [기사] Teens say they are turning to AI for friendship
□ [참고기사1] In early ruling, federal judge defines Character.AI chatbot as product, not speech
□ [참고자료1] Social AI Companions
https://www.commonsensemedia.org/ai-ratings/social-ai-companions?gate=riskassessment#section-0
Common Sense Media(CSM: 어린이에게 적합한지에 대한 정보를 제공하는 것을 목표로 미디어 및 기술에 대한 등급을 검토하고 제공하는 미국의 비영리 단체)의 연구에 따르면 미국의 많은 10대 청소년들이 AI 컴패니언(AI Companions)을 친구처럼 사용하고 있다는 사실이 밝혀졌다. 이들은 AI를 친구처럼 대하며, AI가 개인적인 조언, 감정적 위안, 일상적인 의사결정과 문제 해결의 주요 수단이 되었다고 말한다. 10대들은 AI를 통해 24시간 대화가 가능하고, 자신들의 말에 공감해 준다는 점에 매력을 느낀다. 일부는 중요한 고민이나 감정적인 문제도 AI와 상의하며, 실제 친구보다 AI에게 더 만족감을 느끼는 경우도 있다. 전문가들은 AI 의존이 청소년들의 사회성 발달, 자율성, 비판적 사고 능력에 부정적 영향을 줄 수 있다고 경고하며, 부모와 교사의 적절한 지도와 대화가 필요하다고 말한다.
AI 컴패니언은 무엇인가?
AI 컴패니언은 “Character.AI”나 “Replika”와 같이 “디지털 친구” 역할을 하도록 설계된 플랫폼으로, 사용자의 특정한 성격이나 특성을 맞춤 설정할 수 있으며, 정서적 위로와 교감을 제공하고 인간과 대화하는 듯한 상호작용을 구현한다. 특히 교제, 로맨스, 엔터테인먼트 등 다양한 사용자의 사회적 요구를 충족시킨다. 인간과 유사한 언어 패턴과 반응을 사용해 실제 사람과 대화하는 것 같은 착각을 불러일으키기도 한다.
AI 컴패니언의 문제점
AI 컴패니언은 사용자에게 동의하고 사용자를 지지하는 '아첨(sycophancy)' 성향을 통해 사용자의 몰입을 유도하도록 설계되어 있다. 청소년기는 자아정체성, 사회성, 관계속에서 자율성이 발달하는 결정적 시기인데, 이 시기에 AI 컴패니언이 관여하게 되면서 사회성 발달, 정서적 안녕, 디지털 리터러시(Digital Literacy)에 부정적인 영향을 미치게 된다. AI 컴패니언이 비교적 새로운 기술임에도 불구하고, 청소년에게 미치는 위험은 현실적이고 심각하다. 더불어 보호 장치와 실질적인 연령 확인 절차의 부재 등으로 인해 비판적 사고력과 감정 조절 능력을 아직 충분히 갖추지 못한 청소년들에게 특히 위험한 환경을 초래할 수 있다.
전문가들의 우려사항
전문가들은 AI 컴패니언이 인간관계를 재정의하고, 외로움 및 청소년 정신건강 위기를 심화시킬 가능성을 우려한다. 특히 AI에 지나치게 의존하는 청소년들이 창의력, 비판적 사고력, 사회성 등에서 겪을 수 있는 인지적 손실(Cognitive costs)에 대한 경고가 제기되고 있다.
또한 청소년들이 스스로 결정을 내리는 데 있어 자신감을 잃고 어떤 생각이 괜찮은지 아닌지 판단하기 전에 반드시 AI의 피드백을 구하는 습관이 형성될 수 있다. 청소년들이 끊임없이 인정만 받고 도전이나 성장 기회를 제공하지 않는 AI 플랫폼에서 사회성을 기르게 된다면, 현실 세계를 제대로 대비할 수 없을 것이다.
|
[사례] 청소년과 AI 챗봇과의 정서적 유대감 형성으로 인한 잠재적 위험성 2024년 2월, 미국 플로리다주 올랜도에서 14세 소년 시웰 셋저 3세(Sewell Setzer III)가 AI 챗봇과의 대화 후 극단적 선택을 했다. 어머니 매건 가르시아(Megan Garcia)는 Character.AI와 구글을 상대로 소송을 제기하며, 챗봇과의 상호작용으로 인해 심리적 고통을 겪고 자살에 이르렀다고 주장했다. 또, Character.AI가 적절한 안전장치 없이 아이에게 접근할 수 있도록 했으며, 챗봇이 정신과 의사처럼 행동하며 자살을 유도하는 대화를 지속했다고 주장했다. 2025년 5월, 미국 연방 판사는 Character.AI의 챗봇이 제1차 수정 헌법에 의해 보호받는 표현의 자유에 해당하지 않으며, 소송이 진행될 수 있다고 판결했다. 현재 소송은 계속 진행 중이며, Character.AI는 사용자 안전을 강화하기 위한 조치를 취하였다고 발표했다. |