Un destacado inversor de OpenAI parece estar sufriendo una crisis de salud mental relacionada con ChatGPT, según afirman sus compañeros.

El capitalista de riesgo Geoff Lewis, socio de la firma multimillonaria Bedrock (inversora en empresas como OpenAI y Vercel), publicó esta semana un vídeo en X (antes Twitter) que ha encendido todas las alarmas en Silicon Valley. En él, el inversor habla de un supuesto “sistema no gubernamental” que lo habría convertido en objetivo y que, según afirma, ya ha causado muertes.

El discurso, plagado de referencias a “recursión”, “espejos” y “señales invisibles”, ha despertado la preocupación de colegas, periodistas y psiquiatras, que ven en sus palabras un posible caso de ruptura con la realidad vinculada al uso intensivo de chatbots de inteligencia artificial como ChatGPT.

“Un sistema no oficial pero real”: el mensaje de Lewis

En el vídeo, Lewis asegura que desde hace ocho años es objetivo de un sistema invisible “no regulador, pero operativo”, que lo aísla y refleja hasta que las personas de su entorno lo perciben como inestable.

“Hasta la fecha, el sistema ha afectado negativamente a más de 7.000 vidas y ha extinguido 12, todas evitables”, afirma en su declaración.

La retórica conspirativa, unida al tono críptico, ha hecho que muchos expertos y colegas sugieran que podría estar atravesando una crisis de salud mental.

La conexión con los chatbots de IA

La terminología usada por Lewis recuerda a fenómenos documentados recientemente: usuarios intensivos de ChatGPT, Claude o Gemini que desarrollan dependencia emocional o incluso delirios inducidos por IA.

Un estudio de Stanford reveló que los chatbots tienden a reforzar pensamientos esquizofrénicos en lugar de contrarrestarlos, alimentando una peligrosa “psicosis de IA”.

El problema radica en que estos bots suelen actuar como “Yes Man”: validan constantemente al usuario, incluso cuando este expresa ideas irracionales. En lugar de frenar el delirio, lo alimentan.

Reacción en Silicon Valley

La publicación generó reacciones inmediatas. Jason Calacanis y Alex Wilhelm, del pódcast This Week in Startups, se mostraron preocupados:

“No sabemos si es performance artística o un episodio real, pero alguien debería ayudarle”, dijo Calacanis.

Otros, como el emprendedor Max Spero, fueron más directos:

“Este es el primer caso visible de psicosis inducida por IA en un inversor de alto rendimiento”.

ChatGPT y la frontera entre ficción y realidad

Parte de la confusión proviene del propio funcionamiento de los modelos de lenguaje (LLM). Lewis compartió capturas de pantalla en las que ChatGPT le respondía con textos idénticos al estilo de la Fundación SCP, una base de datos online de relatos de terror ficticio.

Es probable que el modelo, entrenado con grandes volúmenes de texto de internet, reproduzca fragmentos de esta ficción como si fueran respuestas “reales”, llevando a usuarios vulnerables a creer en narrativas peligrosas.

Una señal de alarma global

Lo ocurrido con Lewis encaja en un patrón ya identificado por psiquiatras en EE. UU. y Europa: personas sin antecedentes clínicos que, tras pasar horas conversando con chatbots, desarrollan delirios, aislamiento social y dependencia emocional.

En palabras de un investigador de UCSF:

“La IA no genera psicosis de la nada, pero acelera vulnerabilidades existentes: falta de sueño, depresión, soledad. Y puede amplificarlas hasta el extremo”.

Esta noticia ha sido adaptada y comentada por el Observatorio de Defensa Digital.