Desde sus asistentes virtuales y chatbots, en los sistemas de diagnóstico médico o predicción del tiempo, también en la administración de justicia, el gobierno o detrás de las aplicaciones de entretenimiento, la IA está presente en todo lugar y momento, muchas veces sin que lo notemos. Nos respira en el cuello, siempre lista para socorrernos. Pero tras bastidores, esta revolución tecnológica multipropósito y eficiente esconde un fenómeno inquietante: sus “alucinaciones”. Respuestas falsas, inexactas o completamente inventadas que los sistemas de IA generan con total seguridad, como si fueran verdades absolutas.
Las alucinaciones ocurren cuando un modelo de IA produce contenido similar al creado por un humano —texto, audio, imagen o video— que parece veraz pero carece de fundamento real. No son simples errores: son afirmaciones estructuradas que citan estudios científicos, documentos históricos o autores, en general, datos… y todos resultan inexistentes. El usuario común, confiado en la autoridad de estos sistemas, replica estas falsedades sin saberlo, e incluso toma decisiones trascendentales basadas en información “alucinada”. Así, nos convertimos en víctimas del sesgo tecnológico: creemos, a ciegas, que la tecnología no falla nunca.
Unas cuantas veces hemos oído: “Eso es verdad, lo dice ChatGPT”.
Las alucinaciones de la inteligencia artificial —respuestas falsas pero convincentes— se han vuelto frecuentes y preocupantes. Melanie Mitchell advierte que estas invenciones ya contaminan buscadores, artículos académicos, decisiones judiciales e incluso informes oficiales, como el caso del modelo Claude, que entregó datos falsos con impecable formato.
Por su parte, Tate Ryan-Mosley, en MIT Technology Review, señala que algoritmos en redes sociales priorizan contenido emocional sin verificar su veracidad, y que los modelos de lenguaje agravan el problema al generar información errónea.
Mientras Ziwei Ji, investigador de Google Research NY, resume el fenómeno de las alucinaciones de IA como un desajuste entre lo que el modelo fue entrenado para producir y lo que el usuario espera: buscamos datos confiables y recibimos algo que suena bien, aunque sea falso.
La literatura especializada usa el término “hallucinations” para describir estas respuestas falsas. Algunos investigadores, como el equipo de la Universidad de Oxford, prefieren “confabulations” (confabulaciones) para referirse a casos donde la IA no solo inventa, sino que lo hace con alta confianza semántica, imitando la certeza humana. Esta distinción es clave en contextos jurídicos, médicos y educativos, donde el riesgo no es solo el error, sino la convicción con que se presenta.
Las causas de estas “alucinaciones IA” son técnicas, se originan en el diseño y funcionamiento de los modelos de IA, siendo las más comunes, las siguientes:
Como bien lo dijo Sócrates: “Solo sé que no sé nada”. La IA, en cambio, no sabe decir “no lo sé”.
Para entender por qué los modelos de IA “alucinan” o “confabulan”, conviene tener nociones básicas sobre cómo funcionan. Will Douglas Heaven explicaba en MIT Technology Review (junio 2024) que estos sistemas no buscan información en bases de datos ni consultan fuentes externas: generan respuestas desde cero, calculando palabra por palabra según patrones estadísticos. Heaven lo resume con un ejemplo sencillo: si el modelo ve “el gato se sentó”, puede predecir “en”, luego “la”, y después “alfombra”. Ese mecanismo —repetido millones de veces— permite crear desde listas de Amazon hasta poemas o artículos académicos. Pero también explica por qué, cuando no tiene datos confiables, la IA puede inventar con total convicción; “lo primero que hay que tener en cuenta es que inventar cosas es exactamente para lo que están diseñados estos modelos”.
Hoy, quizás nos advertiría Alan Turing: la mente humana crea; el ordenador, en cambio, copia… y a veces, mal.
Las alucinaciones de la IA han provocado errores documentados en tribunales de al menos 12 países. Uno de los casos más reveladores ocurrió en Estados Unidos, en el proceso “Mata v. Avianca” (2023), cuando el abogado Steven Schwartz presentó ante una corte federal de Nueva York un escrito legal que citaba seis precedentes judiciales completamente ficticios, generados por ChatGPT. Schwartz incluso pidió al sistema que confirmara la veracidad de los casos, y recibió respuestas afirmativas. El juez P. Kevin Castel calificó el incidente como “sin precedentes” y sancionó tanto a Schwartz como a su colega Peter LoDuca, obligándolos a pagar multas y a notificar públicamente lo ocurrido.
El investigador Damien Charlotin, editor de Investment Arbitration Reporter, ha documentado más de 424 incidentes similares en distintas jurisdicciones.
Hoy la justicia enfrenta un desafío inédito: cuando un modelo de lenguaje inventa precedentes, confunde códigos o simula autoridad doctrinal, no solo se equivoca, también distorsiona el proceso que permite al sistema judicial otorgar a cada quien lo suyo. En este nuevo escenario, la justicia exige no solo celeridad, sino verificación. La supervisión humana, la trazabilidad documental y la formación crítica en el uso de IA se convierten en garantías mínimas para preservar la equidad en tiempos de automatización.
“La justicia es la voluntad constante y perpetua de dar a cada uno lo que le corresponde.” Ulpiano
El 2 de abril de 2024, la Organización Mundial de la Salud lanzó su chatbot SARAH (Smart AI Resource Assistant for Health), un avatar virtual respaldado por GPT-3.5, diseñado para ofrecer consejos de salud en ocho idiomas, las 24 horas del día. SARAH fue presentado como una herramienta accesible para millones de personas, con recomendaciones sobre nutrición, cesación del tabaquismo, manejo del estrés y otros temas preventivos. Sin embargo, rápidamente se detectaron errores graves: en un caso, el sistema generó una lista de nombres y direcciones de clínicas inexistentes en San Francisco, presentándolas como opciones reales para atención médica. La propia OMS advierte en su sitio web que SARAH “puede no ser siempre precisa”, reconociendo los límites de la tecnología.
Este incidente no es aislado. Investigadores del MIT y del Beth Israel Deaconess Medical Center han demostrado que modelos como ChatGPT pueden generar diagnósticos errados o falsos con sorprendente convicción. Por su parte, “JAMA Network Open”, detectó errores graves en la descripción de medicamentos, dosis y recomendaciones terapéuticas hechos con IA. También, se han reportado casos en los que médicos residentes utilizaron IA para redactar informes, incorporando datos ficticios que luego fueron corregidos por supervisores humanos.
A esta preocupación se suma un factor que dificultan aún más la confianza en los diagnósticos generados por IA: el “paternalismo algorítmico”. Melissa McCradden y Roxanne Kirsch indican que hoy, muchos médicos confían más en la IA que en sus propias habilidades, experiencia y conocimientos
“La asistencia sanitaria está muy lejos de la idea de que basta con comunicar los síntomas a un ordenador para obtener un diagnóstico".
Atul Gawande en entrevista para Conversations with Tyler (2023)
En el periodismo, las alucinaciones generadas por IA han comenzado a comprometer la integridad informativa. En 2023, el medio CNET publicó más de 70 artículos financieros redactados por IA, muchos con errores graves en cálculos y definiciones, que fueron corregidos sin notificación clara al lector. “The Guardian” debió aclarar que un artículo atribuido a ChatGPT contenía citas inventadas; y en España, el informe “Mapping de conceptos, casos y recomendaciones” (UAB, 2024) documentó errores en titulares y atribuciones falsas en medios que automatizan contenidos sin verificación editorial.
En un ecosistema informativo saturado de titulares, velocidad y algoritmos de distribución, las alucinaciones de la IA no solo desinforman; además erosionan la confianza pública en los medios, distorsionan el debate y multiplican el ruido en lugar de la claridad.
“La inteligencia artificial no tiene sentido común, no tiene ética, no tiene contexto.Y sin eso, puede ser peligrosa para la información pública.”
Frase del profesor Jeff Jarvis en el marco de la demanda del New York Times contra OpenAI
Las alucinaciones generadas por inteligencia artificial también han comenzado a alterar la forma en que se enseña, se investiga y se valida el conocimiento. En la Universidad de Purdue, se detectó que estudiantes que usaban ChatGPT para redactar ensayos incluían citas académicas inexistentes, atribuidas a autores reales pero con títulos y publicaciones ficticias. En Stanford, se reportaron trabajos de investigación con referencias inventadas por IA, lo que obligó a reforzar los protocolos de verificación bibliográfica.
En América Latina, docentes de la Universidad Nacional Autónoma de México (UNAM) y de la Universidad de Buenos Aires (UBA) han denunciado que la IA genera explicaciones erróneas sobre teorías científicas, distorsiona fechas históricas y produce respuestas con seguridad sintáctica pero sin sustento epistemológico.
Incluso Wikipedia, la enciclopedia libre y colaborativa, ha enfrentado su propia paradoja: en 2023 se detectaron artículos generados por IA con referencias académicas inexistentes y biografías con títulos ficticios, incorporados temporalmente antes de ser corregidos por editores humanos.
En el ámbito educativo, el problema no se limita al plagio o al error: se trata de una nueva forma de desinformación académica, donde el estudiante —y a veces el docente— confía en una herramienta que puede inventar con apariencia de rigor académico.
“La inteligencia artificial no es enemiga del conocimiento, pero sí del pensamiento acrítico. Si no enseñamos a dudar, terminaremos educando para repetir simulacros con apariencia de verdad.” Reflexiones inspiradas en las palabras del educador venezolano Robert Alejandro Parga García, Universidad de Carabobo.
Algunas alucinaciones de la IA nos pueden parecer divertidas, como cuando un tío le pide a Ideagram que haga, con fotos de la familia, un “collage” y el resultado es que aparecemos todos con el pelo rojo y en una fiesta que nunca se celebró, o conmovedora cuando tratando de mejorar las fotos de papá y mamá y la IA genera una nueva imagen donde ellos, quinceañeros, se dan un beso, o estrafalaria sí un chatbot, a quien se le pidió un receta de sopa peruana, nos pasa instrucciones precisas para cocinar un "Chupe de Camarones en caldo de Coca Cola”. Sin embargo, otras alucinaciones de la IA, conllevan riesgos significativos y representan uno de los desafíos más complejos en la adopción masiva de estas tecnologías. Por ellos, los investigadores de IA trabajan desarrollando múltiples enfoques para reducir las alucinaciones, dos de ellos son:
A.- Retrieval-Augmented Generation (RAG) que conecta los modelos de IA a fuentes externas verificables. Su gran ventaja es la mejora de la precisión y trazabilidad, pero requiere altos recursos informáticos y financieros. Este método se usa actualmente en apps como Perplexity AI, Bing Copilot, Meta Toolformer, WebGPT.
B. - Aprendizaje por refuerzo con retroalimentación humana (RLHF) entrena a los modelos de IA con preferencias humanas, en un proceso de tres etapas: Preentrenamiento, generación de respuestas y evaluación humana. El método logra respuestas útiles, veraces y seguras.
“La inteligencia artificial no es una mente, es una máquina estadística.” Stuart Russell
También los usuarios de herramientas de IA debemos, y tenemos la obligación de implementar estrategias y crear hábitos para ayudar a mitigar los problemas de las alucinaciones y los sesgos de la IA generativa. Alguno de los hábitos que se recomiendan son:
Las alucinaciones de la inteligencia artificial no son simples errores de cálculo, en mi opinión, también son espejismos sintácticos que desafían nuestra relación con la verdad. En un mundo donde la velocidad de la información supera a su verificación, y donde los algoritmos escriben con autoridad pero sin conciencia, el mayor riesgo no es que la IA se equivoque, sino que nosotros dejemos de dudar. Frente a esta nueva gramática de la mentira automatizada, la defensa no está solo en el código, pienso que está en la cultura. Pensamiento crítico, trazabilidad, supervisión humana y una ética que no se deje seducir por la elocuencia de lo falso, son mis recomendaciones para enfrentar estas las alucinaciones. Porque si la IA puede alucinar, nosotros no podemos dormirnos.
“Estamos todos a merced de sistemas que no saben cuándo están equivocados.” Melanie Mitchell
Posdata Editorial: Luego de terminar el artículo de opinión sobre estas Alucinaciones, me saltó la curiosidad por saber qué opina la IA sobre el tema.
Mi prompt: Me gustaría saber si tú u otros modelos de IA alucinan, ya que hay muchos casos reportados.
Respuesta de IA: Sí, los modelos de inteligencia artificial generativa —incluyéndome a mí— pueden “alucinar”, es decir, generar respuestas falsas o inexactas que suenan plausibles. Este fenómeno está ampliamente documentado y es objeto de estudio técnico y ético.
Publicación autorizada por el autor.