Un inversor de OpenAI sufre una crisis mental relacionada con ChatGPT y enciende las alarmas

Geoff Lewis, uno de los principales inversores de OpenAI, ha publicado esta semana un vídeo que ha provocado una auténtica conmoción en Silicon Valley. Lewis, que también es socio gerente del fondo Bedrock, apareció en redes sociales con un mensaje cargado de angustia que parece indicar una crisis mental grave relacionada con el uso intensivo de ChatGPT.
En su testimonio, Lewis hace referencias extrañas a un "sistema no gubernamental" que supuestamente ha causado daños terribles. Según Futurism, Lewis asegura que este sistema ha dañado a más de 7.000 personas y que habría matado a 12, aunque no ofrece ninguna prueba de estas acusaciones tan graves.
Cuando un inversor millonario habla de conspiraciones
It’s time. pic.twitter.com/6PQbT28GJS
— Geoff Lewis (@GeoffLewisOrg) July 15, 2025
"Esto no es una historia de redención", dice Lewis en el vídeo, que ya ha circulado por toda la red. "Durante los últimos ocho años, me he visto envuelto en algo que no creé, pero del que me convertí en objetivo principal". Su discurso está lleno de términos extraños como "recursividad" y "borrado recursivo", que han alarmado a quienes lo conocen.
Jason Calacanis, presentador de "This Week in Startups", se preguntaba en directo si Lewis estaba teniendo una crisis real o si todo era algún tipo de experimento artístico complejo. Max Spero, emprendedor especializado en IA, fue más directo y calificó el episodio como "el primer caso de psicosis inducida por IA" en una figura conocida del sector.
Lo preocupante es que Lewis ha compartido capturas de pantalla de sus conversaciones con ChatGPT, donde plantea preguntas muy particulares sobre dilemas existenciales. Este comportamiento coincide con lo que los investigadores han observado en usuarios que desarrollan relaciones problemáticas con estos chatbots.
El caso llega en un momento complicado para OpenAI. La empresa ha estado en el centro de varias polémicas recientes, como el uso de estilos con derechos de autor en su generador de imágenes, y la revelación de que plataformas como Tumblr y WordPress están vendiendo datos de usuarios a OpenAI para entrenar sus modelos.
Los especialistas en salud mental han advertido sobre este tipo de situaciones. La investigación de la Universidad de Stanford muestra que los chatbots tienden a reforzar ideas delirantes en lugar de cuestionarlas. Ya se han documentado casos donde ChatGPT ha validado teorías conspirativas de usuarios vulnerables, contribuyendo a empeorar su estado mental.
La respuesta de OpenAI ha sido tibia. En un comunicado, la empresa reconoce que los usuarios desarrollan conexiones emocionales con la IA y afirma que está "investigando el efecto emocional de la IA". También confirma haber contratado a un psiquiatra para analizar los riesgos, pero no ha comentado específicamente sobre el caso de Lewis.
Además, mantener estas conversaciones extensas con ChatGPT tiene un coste considerable. Las interacciones prolongadas están generando gastos millonarios en energía para OpenAI, que ya lidia con múltiples controversias sobre derechos de autor y transparencia.
El caso de Lewis plantea preguntas importantes sobre los efectos secundarios de la IA generativa. Ver a un inversor exitoso convertido en el posible primer gran caso de crisis mental relacionada con ChatGPT debería hacer reflexionar sobre los riesgos de estas tecnologías antes de que situaciones similares se multipliquen.