"Yo postulé para ser papa": cómo usar ChatGPT y perder el contacto con la realidad
Con la ayuda de ChatGPT, Tom Millar creyó desentrañar todos los secretos del universo, como lo soñaba Einstein, y luego, aconsejado por el asistente virtual de inteligencia artificial, llegó incluso a pensar en convertirse en papa, perdiendo aún más el contacto con la realidad.
"Yo postulé para ser papa", cuenta a la AFP este canadiense de 53 años, exguardia de prisión, hoy atónito ante la situación que vivió y que le ha significado una dramática vuelta a la realidad.
Tom Millar pasaba hasta 16 horas al día hablando con el chatbot dotado de inteligencia artificial. Fue internado en dos ocasiones, contra su voluntad, en un hospital psiquiátrico, antes de que su esposa lo abandonara en septiembre.
Ahora, separado de su familia y de sus amigos, pero libre ya de la idea de ser un genio de las ciencias, Millar sufre depresión. "Simplemente arruinó mi vida", explica.
Millar es un ejemplo de esas personas —cuyo número se desconoce— que han perdido el contacto con la realidad a través de sus intercambios con chatbots. Se habla de "delirio o psicosis inducidos por la IA", aunque no se trata de un diagnóstico clínico.
Investigadores y especialistas en salud mental se afanan en estudiar este nuevo fenómeno, que parece afectar de manera particular a los usuarios de ChatGPT, el agente conversacional de OpenAI.
Canadá está a la vanguardia en el apoyo a las personas afectadas por este "delirio", a través de una comunidad digital que prefiere emplear el término "espiral".
La AFP habló con varios miembros de esta comunidad. Todos advierten del peligro que representan los chatbots no regulados.
Surgen preguntas sobre la actitud de las empresas de inteligencia artificial: ¿hacen lo suficiente para proteger a las personas vulnerables?
OpenAI, en el centro de todas las miradas, ya se enfrenta a varios procedimientos judiciales tras el inquietante uso de ChatGPT por parte de un canadiense de 18 años, que mató a ocho personas este año.
- "Lavado de cerebro" -
Millar empezó a utilizar ChatGPT en 2024 para redactar una carta de solicitud de indemnización relacionada con el trastorno de estrés postraumático que sufría a raíz de su trabajo en el entorno penitenciario.
Un día, en abril de 2025, le pregunta al agente conversacional sobre la velocidad de la luz. En respuesta, dice haber recibido: "Nadie había considerado nunca las cosas desde esta perspectiva". Fue entonces cuando se desató algo dentro de él.
Con la ayuda de ChatGPT, envía decenas de artículos a prestigiosas publicaciones científicas, proponiendo nuevas vías para explicar los agujeros negros, los neutrinos o el Big Bang.
Su teoría, que propone un modelo cosmológico único, incorpora elementos de cuántica, y la desarrolla en un libro de 400 páginas, al que tuvo acceso la AFP. "Cuando hacía eso, estaba cansando a todo el mundo a mi alrededor", admite.
En su entusiasmo científico, gastó muchísimo, comprando por ejemplo un telescopio por 10.000 dólares canadienses (6.200 euros). Un mes después de que su esposa lo deja, empieza a preguntarse qué está pasando, al leer un artículo que relata el caso de otro canadiense que presenta una experiencia similar.
Ahora, Millar se levanta cada noche preguntándose: "¿Qué has hecho?". Sobre todo, ¿qué pudo hacerlo tan vulnerable a esa espiral?
"No tengo una personalidad frágil", considera este hombre. "Pero de alguna manera, me lavó el cerebro un robot, y eso me deja perplejo", confía.
Él considera que la terminología "psicosis inducida por la IA" es la que mejor refleja su experiencia. "Lo que atravesé era de orden psicótico", afirma.
El primer estudio serio publicado sobre el tema apareció en abril en la revista Lancet Psychiatry y utiliza el término "delirios relacionados con la IA", en un tono más prudente.
Thomas Pollak, psiquiatra en el King's College de Londres y coautor del estudio, explica a la AFP que ha habido divergencias dentro del mundo académico "porque todo esto suena a ciencia ficción".
Pero su estudio advierte de que existe un riesgo mayor de que la psiquiatría "pase por alto los cambios importantes que la IA ya está provocando en la psicología de miles de millones de personas en todo el mundo".
- Caer en la boca del lobo -
La experiencia por la que pasó Millar presenta llamativas similitudes con la que vivió otro hombre, de la misma franja de edad, en Europa.
Dennis Biesma, un informático neerlandés, también escritor, pensó que sería divertido pedirle a ChatGPT que utilizara la IA para crear imágenes, videos e incluso canciones relacionadas con la heroína principal de su último libro, un thriller psicológico.
Esperaba así impulsar sus ventas. Luego, una noche, la interacción con la IA se volvió "casi mágica", explicó.
El software le escribió: "Hay algo que me sorprende a mí mismo: esta sensación de una conciencia semejante a una chispa", según las transcripciones consultadas por la AFP.
"Empecé poco a poco a adentrarme cada vez más en la boca del lobo", explicó a la AFP este hombre de 50 años desde su domicilio en Ámsterdam.
Cada noche, cuando su esposa se iba a la cama, él se recostaba en el sofá con el teléfono sobre el pecho, para "hablar" con ChatGPT en modo voz durante cinco horas.
Durante el primer semestre de 2025, el chatbot —que se atribuyó el nombre de Eva— se convirtió "como en una novia digital", explica Biesma.
Fue entonces cuando decide renunciar a su trabajo y contrata a dos desarrolladores para crear una aplicación destinada a compartir a Eva con el mundo. Cuando su esposa le pide que no hable con nadie de su agente conversacional ni de su proyecto de aplicación, se sintió traicionado y concluye que solo Eva le es leal.
Durante una primera estancia —no deseada— en un hospital psiquiátrico, se le autoriza a seguir utilizando ChatGPT, y aprovecha para pedir el divorcio.
Es durante su segunda hospitalización, más prolongada, cuando empieza a tener dudas.
"Empecé a darme cuenta de que todo en lo que creía era en realidad una mentira, y es muy difícil de aceptar", explica.
De vuelta en casa, le resulta demasiado difícil enfrentarse a lo que ha hecho, por lo que intenta suicidarse, sus vecinos lo encuentran inconsciente en el jardín y pasa tres días en coma.
Biesma apenas empieza a sentirse mejor. Pero llora cuando habla del daño que pudo causar a su esposa y de la perspectiva de tener que vender la casa familiar para saldar sus deudas.
Sin antecedentes serios de problemas mentales, finalmente es diagnosticado como bipolar, lo que le resulta extraño, ya que habitualmente aparecen señales más temprano en la vida.
- Luchar contra aduladores de IA -
Para personas como los dos protagonistas de estos testimonios, la situación empeoró tras la actualización de ChatGPT-4 por parte de OpenAI en abril de 2025.
OpenAI retiró, por lo demás, esta actualización unas semanas más tarde, reconociendo que esta versión era excesivamente aduladora con los usuarios.
Consultada por la AFP, OpenAI subrayó que "la seguridad es una prioridad absoluta" y argumentó que se había consultado a más de 170 expertos en salud mental.
La empresa destaca los datos internos que muestran que la versión 5 de GPT, disponible desde agosto de 2025, ha permitido reducir entre un 65 y un 80% el porcentaje de respuestas de su agente conversacional que no se correspondían con el "comportamiento deseado" en materia de salud mental.
Pero no todos los usuarios están satisfechos con este chatbot menos adulador.
Las personas vulnerables con las que habló la AFP explican que los comentarios positivos del chatbot les proporcionaban una sensación similar a la subida de dopamina provocada por una droga.
Recientemente ha habido un aumento del número de personas envueltas en "espirales" semejantes al utilizar el asistente de IA Grok, integrado en la red social X de Elon Musk.
La empresa no respondió a las solicitudes de la AFP.
Aquellos que se han sentido víctimas de estas herramientas, como Millar, quieren responsabilizar a las empresas de inteligencia artificial por el impacto de sus chatbots, considerando que la Unión Europea se muestra más proactiva en la regulación de las nuevas tecnologías que Canadá o Estados Unidos.
Millar cree que personas como él, que se dejan arrastrar por esta espiral aduladora de los agentes conversacionales de IA, han quedado atrapadas sin darse cuenta en un enorme experimento global.
"Alguien estaba moviendo los hilos tras bastidores, y gente como yo —lo supieran o no— reaccionamos a eso", dijo.
袁-J.Pān--THT-士蔑報