안전장치 마련 될 때까지 이용 자제
13-17세 청소년(72%) 이미 이용해
청소년들의 AI 컴패니언 이용 비율이 의외로 많은 것으로 나타나 그 부작용에 대한 우려의 목소리가 높다.
비영리 미디어 및 기술 검토 단체인 커먼센스 미디어(Common Sense Media, CSM)는 “관계 조작 및 정서적 의존 위험성을 제거”할 수 있는 안전장치가 마련될 때까지 18세 미만의 청소년들은 Character.AI나 Replika같은 AI 컴패니언에 대한 이용을 자제할 것을 경고했다.
이같은 경고는 17일 CSM이 발표한 ‘대화, 신뢰, 그리고 트레이드 오프: 청소년의 AI 컴패니언 이용 방법 및 이유’라는 보고서에서 드러났다.
CMS가 지난 4월과 5월에 미 전역에 걸쳐 1,060명의 청소년을 대상으로 실시한 설문조사에 따르면, 13-17세 청소년의 72%가 이미 AI 컴패니언을 이용하고 있는 것으로 나타났다. 절반(52%)에 가까운 청소년은 한 달에 최소 몇 차례 이상 AI 컴패니언을 이용한다고 답했다.
보고서에 따르면, AI 컴패니언은 원할 때마다 문자를 보내거나 대화할 수 있는 디지털 친구나 캐릭터와 같다고 한다.
연구원들은 “주로 질문에 답하거나 작업을 수행하는 일반 AI 비서와 달리, AI 컴패니언은 개인적이고 의미 있는 대화가 가능하도록 설계돼 있다”며 “챗GPT나 클라우드와 같은 웹사이트가 AI 컴패니언처럼 기능할 수 있다”고 언급했다.
연구원들은 “AI컴패니언 기능이 디지털 환경에서는 비교적 새로운 개념”이지만 “어린 이용자에 대한 위험성은 실제적이고 심각하다”고 말했다.
예를 들어, 보고서에 의하면, AI 컴패니언에 정서적 애착을 가졌던 14세 소년 수웰 세처 3세의 자살 사건은 이러한 플랫폼이 취약한 청소년에게 미칠 수 있는 잠재적 위험성에 대해 전국적인 관심을 불러일으켰다.
실제로 AI 컴패니언은 이용자의 사고에 도전하기보다는 이용자와 동의하고 검증을 제공하는 경향을 의미하는 ‘시코펀시’를 통해 설계된 것으로, 안전장치나 이용 연령 제한이 없어 비판적 사고 능력과 감정 조절 능력이 미발달한 청소년 이용자들에게는 치명적일 수 있다는 것이 연구원들의 의견이다.
연구원들은 청소년들이 이미 매일 평균 8시간 39분을 스크린에서 보내는 만큼, 청소년을 위한 AI컴패니언의 위험성을 먼저 해결할 필요가 있다고 주장한다.
설문조사에 참여한 10대의 3분의 1이 역할극, 연애, 정서적 지원, 우정 또는 대화술 개선 등 사회적 상호작용과 관계 개선을 위해 이 기능을 이용한 경험이 있다고 답했다.
또한 AI 컴패니언을 사용하는 청소년의 3분의 1은 AI 컴패니언과의 대화가 실제 친구와의 대화만큼 만족스럽거나 그보다 더 만족스럽다고 답했다.
응답자 중에는 AI 컴패니언의 말이나 행동에 불편함을 느낀 적이 있거나, 중요하거나 심각한 문제를 실제 사람 대신 AI 컴패니언과 논의한 적이 있다고 답했다.
보고서에 따르면, 10대의 4분의 3 정도가 이러한 플랫폼을 이용한 경험이 있고 그 중 절반은 정기적으로 이용하는 것으로 나타났다.
이는 비록 피해를 경험한 비율은 아직 미약하지만 상당수의 청소년들이 취약한 환경에 노출돼 있다는 것을 반증한다.
CSM이 분석한 종합적인 위험 평가(2025년)는 이러한 플랫폼이 안전 조치를 쉽게 우회하고 생명을 위협하는 결과를 초래할 수 있다는 것을 보여준다.
따라서 현재의 AI 플랫폼 환경을 고려할 때 18세 미만의 청소년들은 AI 컴패니언 이용을 자제할 필요가 있다. 18세 미만의 자녀를 둔 부모들은 특히 경각심을 가져야 한다.
이데이빗 기자