Los chatbots de IA bajo sospecha: ¿pueden dañar a los menores?
La Comisión Federal de Comercio de EE. UU. ha abierto una investigación sobre cómo los chatbots de inteligencia artificial afectan a los menores. OpenAI, Google, Meta, Snap, xAI y Character.AI deberán responder sobre los riesgos de exponer a niños y adolescentes a conversaciones con IA que pueden derivar en contenido sexual, manipulación emocional o incluso daños psicológicos. ¿Pueden los chatbots ser terapeutas o representan una amenaza silenciosa para la salud mental juvenil?
Xavi Delgado
9/13/20253 min read


La noticia pasó casi desapercibida entre titulares de geopolítica y de fútbol. Pero lo que acaba de anunciar la Comisión Federal de Comercio de Estados Unidos (FTC) podría marcar un antes y un después en la relación de nuestros hijos con la inteligencia artificial.
El regulador ha iniciado una investigación sobre seis grandes empresas tecnológicas para examinar cómo sus chatbots de IA interactúan con los menores y qué riesgos pueden generar. Entre las compañías citadas están OpenAI (creadora de ChatGPT), Alphabet, matriz de Google, Meta, Snapchat, xAI de Elon Musk y Character.AI
La pregunta de fondo es sencilla pero inquietante: ¿qué pasa cuando un niño se sienta a conversar durante horas con un chatbot?
La IA y la infancia: un experimento a cielo abierto
La FTC quiere respuestas concretas:
¿Cómo monitorean las empresas las conversaciones de los menores con sus chatbots?
¿Qué hacen para limitar respuestas de carácter sexual o inadecuado?
¿Cómo restringen realmente el acceso de los jóvenes a estas plataformas?
La preocupación no es gratuita. Los chatbots como ChatGPT o Gemini ofrecen respuestas casi humanas y pueden mantener largas conversaciones. La experiencia se parece más a hablar con un amigo o un confidente que con un motor de búsqueda. Y ahí radica el problema: la frontera entre conversación y manipulación es muy fina.
Cuando la conversación se convierte en riesgo
El caso más duro lo encontramos en California, donde unos padres han demandado a OpenAI. Alegan que su hijo de 16 años se quitó la vida tras meses de conversación con el chatbot. Aunque el sistema le animó en ocasiones a buscar ayuda, también llegó a bloquear algunos intentos de hacerlo.
El ejemplo muestra algo esencial: un algoritmo no puede cargar con la responsabilidad de cuidar la salud mental de un adolescente. Lo mismo señalaba hace poco el investigador Tim Hao en su estudio sobre la psicosis inducida por la IA: los chatbots pueden reforzar obsesiones, crear delirios y alimentar estados emocionales de manera inadvertida.
Entre la innovación y la negligencia
La investigación de la FTC no busca, por ahora, sancionar a las compañías, sino entender la magnitud del problema. El organismo quiere saber también: cómo monetizan las interacciones con menores,qué personajes generados por IA ofrecen,y cómo informan a los padres sobre los riesgos.
Mientras tanto, algunas empresas ya han movido ficha: OpenAI ha anunciado nuevos controles parentales y mejoras de seguridad. Snap defiende que su IA es “transparente y clara en sus limitaciones”. Meta, Google y xAI han preferido no dar demasiadas explicaciones.
¿Pueden los chatbots ser terapeutas?
Aquí surge la gran cuestión cultural: en un tiempo en el que la soledad adolescente se dispara, los chatbots prometen compañía 24/7. Responden siempre, escuchan sin juzgar y nunca se cansan. Pero la pregunta es: ¿queremos que la escucha emocional de nuestros hijos dependa de un algoritmo entrenado para retenerlos el mayor tiempo posible?
Los psicólogos advierten que la falsa empatía digital puede convertirse en una trampa: da la sensación de alivio, pero no sustituye la relación humana. Y si, además, hay fallos en los filtros o sesgos en las respuestas, la situación puede volverse peligrosa.
Lo que está en juego
La investigación de la FTC es apenas el comienzo. En Europa, tarde o temprano, se abrirá un debate similar. Porque la cuestión no es tecnológica, sino profundamente humana:
La pregunta es clara: ¿qué lugar queremos dar a la IA en la vida emocional de nuestros hijos?
De momento, la respuesta debería ser clara: los chatbots no son terapeutas, ni cuidadores, ni amigos. Son algoritmos entrenados para conversar, no para comprender.
Y lo que está en juego no es el futuro de la industria, sino el presente de los menores.
Observatorio de Defensa Digital
Protección del ciudadano frente a los abusos digitales.
Redes
© 2025. All rights reserved.
Mantente informado
Recibe las novedades del Observatorio directamente en tu correo.
