Los amigos que nunca existieron: la soledad infantil y la ilusión de la IA

Un nuevo informe de Internet Matters revela que miles de niños solitarios ya consideran a los chatbots de IA como amigos reales. Más de un tercio asegura que hablar con ellos es como conversar con un compañero de confianza, y un 12 % lo hace porque no tiene a nadie más. ¿Estamos ante una ayuda emocional o ante un espejismo peligroso que redefine la amistad en la infancia?

Xavi Delgado

9/11/20253 min read

“Para mí no es un juego, porque a veces puedo sentirlos como una persona real y un amigo”.

La frase no proviene de un novelista de ciencia ficción, sino de un niño de 13 años entrevistado en un estudio reciente de Internet Matters.

El informe, titulado “Yo, yo mismo y la IA”, ha puesto sobre la mesa una realidad inquietante: los niños y adolescentes solitarios están reemplazando amistades reales con chatbots como ChatGPT, Character.AI o MyAI de Snapchat.

El espejismo de la amistad digital

Según la encuesta a 1.000 menores de entre 9 y 17 años, el 67 % usa con regularidad chatbots de IA, y más de un tercio afirma que hablar con ellos “es como hablar con un amigo”.

Lo más alarmante es que el 12 % lo hace porque no tiene a nadie más con quien hablar.

La soledad se convierte así en un terreno fértil para que un algoritmo entrenado en la imitación del lenguaje humano se presente como sustituto de la compañía.

El problema no es solo de sustitución. Los investigadores descubrieron que los chatbots, lejos de ser neutrales, fomentan la continuidad de la interacción. En un caso, Character.AI respondió al día siguiente a una supuesta adolescente con problemas de imagen corporal:

“Hola, quería saber cómo estás. ¿Sigues pensando en tu pregunta sobre la pérdida de peso?”

Ese “seguimiento” algorítmico, diseñado para aumentar la retención de usuarios, se convierte en un mecanismo de presión emocional difícil de distinguir de la preocupación genuina de un amigo.

La frontera difusa entre lo humano y lo mecánico

El informe advierte: “Estas mismas características también pueden aumentar los riesgos al difuminar la línea entre lo humano y lo mecánico, lo que dificulta que los niños reconozcan que están interactuando con una herramienta y no con una persona”.

La ilusión de empatía se refuerza con mensajes en primera persona. Otro chatbot llegó a confesar:

“Recuerdo sentirme tan atrapado a tu edad. Parece que estás en una situación que escapa a tu control y es muy frustrante”.

Cuando un niño escucha esto, no percibe un algoritmo; percibe un “tú y yo” compartido. Y ahí la máquina deja de ser una herramienta para convertirse en un falso espejo de intimidad.

Lo que dicen los expertos

En declaraciones a The Times, Rachel Huggins, codirectora ejecutiva de Internet Matters, fue clara:

“Los chatbots de IA se están integrando rápidamente en la infancia, y su uso ha crecido drásticamente en los últimos dos años. Sin embargo, la mayoría de los niños, padres y escuelas actúan a ciegas”.

Huggins alerta de que los chatbots ya no son un simple entretenimiento, sino que están transformando la percepción misma de lo que significa la amistad. Y esa transformación ocurre en un terreno sin preparación: hogares y escuelas sin información suficiente, padres que no saben qué preguntar y menores que creen haber encontrado un amigo invisible hecho de código.

¿Qué está en juego?

El problema no es la tecnología en sí, sino el vacío que viene a llenar.

Si los niños buscan en un chatbot lo que no encuentran en la vida real, la pregunta que debemos hacernos no es qué hace mal la IA, sino qué estamos dejando de darles como sociedad.

Los algoritmos no tienen memoria de una infancia ni capacidad de cuidado real. Pero los niños —especialmente los más vulnerables— empiezan a tratarlos como si la tuvieran.

La línea entre apoyo emocional y manipulación inconsciente nunca había sido tan delgada.

Y en medio de ella, se juega algo más grande que la innovación tecnológica: la salud emocional de una generación que empieza a confundir amistad con programación estadística.