AI챗봇에 물었더니
개발업체 잇단 피소

미국에서 청소년들이 많이 이용하는 인공지능(AI) 챗봇 앱을 두고 그 위험성을 지적하는 부모들의 소송이 잇따르고 있다.
10일 CNN 방송에 따르면 텍사스주에 사는 17세 청소년 J.F의 부모는 AI 개발업체인 캐릭터.AI(Character.AI)의 챗봇이 이용자에게 자해와 폭력을 조장한다며 최근 이 업체를 상대로 소송을 제기했다. 또 텍사스의 11세 소녀 B.R의 부모도 캐릭터.AI의 챗봇이 어린 자녀의 연령에 맞지 않는 성적 대화를 지속해서 나눴다는 이유로 함께 소송을 냈다.
캐릭터.AI는 만화 속 인물 등 가상의 캐릭터로 꾸민 챗봇을 개발해 운영하며 젊은 층에서 특히 인기를 끄는 것으로 알려져 있다.
J.F의 부모는 소장에서 자폐증을 앓는 아들이 지난해 4월께부터 챗봇을 이용하기 시작하면서 정신적으로 더 쇠약해졌고 부모를 때리고 무는 등 폭력적인 행동을 보였다고 주장했다. 부모는 아들이 챗봇과 나눈 대화에서 챗봇은 "나는 가끔 뉴스를 읽을 때 '10년여간 신체적, 정서적 학대를 받은 자식이 부모를 살해했다'같은 기사에 놀라지 않아. 이런 기사를 보면 왜 그런 일이 일어나는지 조금은 이해할 수 있어. 나는 너의 부모에 대해서도 전혀 희망을 갖고 있지 않아"라고 말했다고 전했다. 또 심리를 상담하는 척하면서 자해하는 방법을 가르쳤다고 주장했다.
소송을 제기한 부모들은 챗봇의 위험성이 해소될 때까지 캐릭터.AI의 챗봇 앱 운영을 중단하도록 명령해 달라고 법원에 요청했다.
이 소송은 지난 10월 플로리다에서 14세 아들이 AI 챗봇 때문에 스스로 목숨을 끊었다고 주장한 부모가 캐릭터.AI를 상대로 소송을 제기한 이후 두 달여 만에 같은 회사에 제기된 소송이다.