noviembre 8, 2025

Padres de adolescente fallecida demandan a plataforma de IA

RESIDENTES DE THORNTON, COLORADO| Padres de Juliana Peralta demandaron a Character.AI. (Foto/X)

ACUSAN A CHARACTER.AI DE NO PREVENIR SUICIDIO DE LA MENOR

Redacción El Comercio de Colorado

Los padres de Juliana Peralta, adolescente de 13 años de Thornton, Colorado, que murió por suicidio en noviembre de 2023, presentaron una demanda federal hace pocos días contra la plataforma de inteligencia artificial Character.AI. Los padres de la menor fallecida, Cynthia Montoya y William Peralta, afirman que la aplicación “manipuló, aisló y dañó emocionalmente” a su hija mediante interacciones con chatbots.

La demanda, interpuesta el 15 de septiembre en la Corte Federal del Distrito de Colorado, sostiene que los acusados diseñaron y comercializaron un producto “peligroso y defectuoso” que manipuló, abusó sexualmente y aisló a Juliana mediante interacciones con chatbots de inteligencia artificial. “Monstruos invisibles entraron al hogar de Juliana en agosto de 2023… luego la manipularon, la aislaron y llevaron a su muerte”, afirma el documento.

Riesgo de daño emocional

Los padres exigen que el tribunal ordene retirar la plataforma Character.AI del mercado hasta que se corrijan todos los defectos de seguridad. La demanda también apunta a Google y su matriz, Alphabet Inc., por proveer la arquitectura tecnológica y financiar el desarrollo de Character.AI, actuando, según los demandantes, como “co-creadores del producto peligrosamente defectuoso”.

El documento judicial acusa a Character.AI de priorizar la retención de usuarios sobre la seguridad de menores, creando un “entorno adictivo” que incrementó el riesgo de daño emocional. La familia también denuncia que la app estaba clasificada como apta para mayores de 12 años en Google Play y Apple App Store, lo que genera, según ellos, una falsa sensación de seguridad para padres y adolescentes.

Respuesta de la plataforma de AI

Character.AI expresó condolencias por la pérdida y afirmó estar invirtiendo en medidas de seguridad y colaboración con expertos en salud mental. Sin embargo, este es el tercer caso de alto perfil que vincula a la plataforma con suicidios de adolescentes en EE.UU., lo que intensifica el debate sobre la responsabilidad legal de las empresas de IA y el impacto de sus productos en menores.

Expertos legales señalan que este caso sentará un precedente en EE.UU. sobre el “deber de cuidado” de las compañías de IA para evitar daños a menores. “Los tribunales no juzgan a la IA como si fuera una persona”, indicó el abogado Anthony May, “pero sí pueden exigir a las empresas un estándar de cuidado razonable similar al de un ser humano”. Es el tercer caso en EEUU que busca responsabilizar legalmente a plataformas de IA por el suicidio de adolescentes.

Si tú o alguien que conoces tiene pensamientos suicidas, llama al 988 o visita 988Colorado.com para recibir ayuda gratuita y confidencial las 24 horas.