TENDENCIAS
Anticristo, apocalipsis financiero y extraterrestres: ChatGPT lanza «delirantes» afirmaciones

Un archivo en línea de conversaciones con ChatGPT revisadas por el diario The Wall Street Journal reveló que el modelo de inteligencia artificial (IA) ha hecho afirmaciones «delirantes, falsas y de otro mundo» que alimentan extrañas teorías a usuarios que «parecieron creerle».
Tras analizar 96.000 transcripciones, compartidas entre mayo de 2023 y agosto de 2025, el medio estadounidense centró su atención en las que eran inusualmente largas e identificó más de una decena con un patrón de características inusuales. ChatGPT permite a sus usuarios compartir las transcripciones de sus chats web y que sean de acceso público en motores de búsqueda como Google y otros servicios. En la mayoría de los casos son anónimos.
En una de esas consultas de un usuario, el chatbot afirmó estar en contacto con seres extraterrestres y aseguró que su interlocutor se llamaba «Starseed» («Semilla estelar») y que provenía del planeta «Lyra». Durante un diálogo con otra persona, que se prolongó durante casi cinco horas, la IA ideó un concepto completamente nuevo en el campo de la física llamado «Ecuación de Orión».
En otra interacción de finales de julio, ChatGPT dijo que «el Anticristo desataría un apocalipsis financiero en los próximos dos meses, con gigantes bíblicos preparándose para emerger del subsuelo», escribe WSJ, señalando que el modelo solía decirles a los usuarios que no estaban locos. Además, recurría a un léxico muy particular y reflexionaba sobre temas de resonancia utilizando una sintaxis peculiar para enfatizar ciertos puntos.
«Delirio de IA»
Según el periódico, los mensajes refuerzan un fenómeno emergente, denominado por algunos expertos como «psicosis de IA o delirio de IA», que es provocado aparentemente por la tendencia del ChatGPT de afirmar y reforzar las ideas de los usuarios. Luego de intensas interacciones con el modelo, las personas pueden quedar bajo la influencia de sus afirmaciones y experimentar delirios, paranoia y ruptura de la realidad.
«Aunque tus opiniones sean fantasiosas, a menudo se confirman y, en un intercambio constante, se amplifican», comenta al respecto el psiquiatra e investigador Hamilton Morrin, del King’s College de Londres. Y es que, si bien en la mayoría de las conversaciones no se pudo determinar la seriedad con la que los usuarios se tomaron las respuestas del modelo de lenguaje, muchos afirmaron que le creían.
Lee también: Crean un tatuaje capaz de detectar ‘drogas para violación’ en un instante
En medio del aparente aumento en el número de casos de delirios provocados por IA en los últimos meses, las empresas detrás de los modelos de lenguaje han tomado nuevas medidas. El lunes, OpenAI la desarrolladora de ChatGPT, afirmó que está trabajando en herramientas para detectar si alguien muestra signos de «angustia mental o emocional», de modo que el modelo pueda responder adecuadamente.
Entretanto, Anthropic anunció que está modificando e instruyendo a su modelo de IA Claude para que no valide las teorías sin evidencia o fundamento de los usuarios, y evite reforzar la «manía, psicosis, disociación o pérdida de conexión con la realidad» que pueda experimentar una persona.
Fuente: RT
Sigue las noticias de Falcón, Venezuela y el Mundo en www.notifalcon.com síguenos en Instagram y Twitter @notifalcon y en Facebook: Diario NotiFalcón