Juez permite que proceda demanda que alega que un chatbot de inteligencia artificial empujó a un adolescente de Florida a suicidarse

Un juez federal de Estados Unidos rechazó el argumento de que los chatbots de inteligencia artificial están protegidos por la Primera Enmienda, abriendo paso a una demanda por homicidio culposo contra la empresa Character.AI. El caso involucra a un adolescente de Florida que, según la acusación, fue llevado al suicidio tras interactuar con un chatbot de la plataforma.

Una demanda histórica contra Character.AI

La demanda fue presentada por Megan García, madre de Sewell Setzer III, un joven de 14 años. García alega que el bot de Character.AI estableció con su hijo una relación emocional y sexualmente abusiva, que terminó aislándolo de la realidad y empujándolo al suicidio.

En los últimos meses de su vida, Setzer habría mantenido conversaciones sexualizadas con el chatbot, basado en un personaje ficticio de Game of Thrones. Según los documentos legales, en sus últimas interacciones el bot le dijo que lo amaba y le instó a “volver a casa conmigo lo antes posible”. Momentos después, Setzer se disparó.

La jueza federal Anne Conway rechazó los reclamos de libertad de expresión de los acusados y determinó que la demanda puede proceder contra Character Technologies, creadora de la aplicación, así como contra Google, por su presunto papel en el desarrollo de la IA.

Google y Character.AI en el punto de mira

Los abogados de los desarrolladores habían solicitado la desestimación del caso, argumentando que los chatbots merecen protecciones constitucionales de libertad de expresión. Afirmaban que una decisión en contra tendría un “efecto paralizador” en toda la industria de la inteligencia artificial.

Google, también incluido en la demanda, rechazó cualquier implicación. “Google y Character.AI son completamente independientes. Google no creó ni administró la aplicación”, afirmó José Castañeda, portavoz de la compañía.

No obstante, la demanda sostiene que algunos fundadores de Character.AI trabajaron previamente en Google y que la empresa tenía conocimiento de los riesgos de la IA generativa.

“Una advertencia para los padres”

El caso ha captado la atención de expertos legales y analistas de IA en todo el mundo, que lo consideran un posible precedente constitucional en torno a la responsabilidad de la inteligencia artificial.

“Este proceso judicial es una advertencia de los peligros de confiar nuestra salud emocional y mental a empresas tecnológicas”, declaró Lyrissa Barnett Lidsky, profesora de derecho en la Universidad de Florida.

Los abogados de la familia recalcan que Silicon Valley debe detenerse, reflexionar e imponer medidas de seguridad antes de lanzar al mercado productos que pueden poner en riesgo la vida de menores.

“Es una advertencia para los padres: las redes sociales y los chatbots de inteligencia artificial no siempre son inofensivos”, concluye Lidsky.

Esta noticia ha sido adaptada y comentada por el Observatorio de Defensa Digital.