10°SAN LUIS - Viernes 27 de Junio de 2025

10°SAN LUIS - Viernes 27 de Junio de 2025

EN VIVO

El talón de Aquiles de la IA: las alucinaciones

En el vertiginoso avance de la inteligencia artificial, emerge una paradoja intrigante que captura la atención y genera un intenso debate entre científicos, ingenieros y profesionales de diversas disciplinas por igual: a medida que estos sistemas computacionales de vanguardia se vuelven exponencialmente más potentes, más complejos en su arquitectura y más integrados en nuestras vidas cotidianas, también exhiben con una frecuencia preocupantemente creciente un fenómeno peculiar y a menudo desconcertante conocido como "alucinaciones". 

 

Lejos de ser meras curiosidades anecdóticas, fallos insignificantes o errores fácilmente corregibles, estas invenciones, fabricaciones o "fabulaciones" de la IA plantean desafíos significativos, e incluso en ocasiones, alarmantes, especialmente en entornos corporativos y profesionales donde la precisión absoluta, la veracidad irrefutable y la confiabilidad inquebrantable de la información son pilares cruciales para la toma de decisiones estratégicas, la operación eficiente de los negocios y la construcción de la confianza del usuario. 

 

Un incidente reciente que resonó en la comunidad tecnológica y sirvió como una clara ilustración de esta problemática ocurrió en la empresa Cursor, reconocida desarrolladora de herramientas avanzadas diseñadas específicamente para programadores y desarrolladores de software. En este caso particular, un sofisticado bot de soporte de IA, que había sido meticulosamente entrenado y diseñado para asistir a los clientes con consultas técnicas complejas y preguntas sobre políticas de uso de la plataforma, informó erróneamente a un grupo de usuarios sobre un cambio inexistente en la política de uso de la plataforma. 

 

Esta desinformación, completamente infundada y generada por la IA, no sólo sembró confusión y frustración considerables entre los clientes afectados, sino que también provocó un notable descontento que tuvo que ser gestionado y mitigado con urgencia por el equipo de soporte humano. Este tipo de eventos, lejos de ser un caso aislado o una anomalía estadística, es cada vez más común; por el contrario, investigaciones exhaustivas y pruebas rigurosas realizadas en diversos laboratorios de investigación, universidades y entornos reales de aplicación revelan una tendencia preocupante: los sistemas de IA más avanzados, aquellos que se encuentran en la vanguardia de la tecnología actual, lejos de erradicar o mitigar eficazmente estas "alucinaciones", las están incrementando tanto en número como, en algunos casos, en su nivel de sofisticación y en la convicción con la que son presentadas.

 

La naturaleza del error en la IA: ¿Por qué "alucina" y cómo funciona este complejo proceso de fabulación? 

 

Para comprender la raíz profunda de este fenómeno y desentrañar su mecánica interna, es fundamental establecer una clara diferenciación entre la operatividad de los modelos de IA actuales y los sistemas computacionales tradicionales, los cuales se basan en reglas estrictas, lógicas predefinidas y algoritmos deterministas. 

 

A diferencia de estos últimos, los modelos de inteligencia artificial contemporáneos, en particular los denominados "sistemas de razonamiento" o Grandes Modelos de Lenguaje (LLMs), operan mediante intrincados, complejos y a menudo opacos cálculos de probabilidad. Su "aprendizaje" no es un proceso de adquisición de hechos en el sentido humano, sino que se deriva de la asimilación masiva y el procesamiento de vastas cantidades de datos digitales. 

 

Estos datos pueden abarcar una diversidad asombrosa de formatos, incluyendo textos, imágenes estáticas, videos dinámicos, audio, y complejos bloques de código fuente. Aunque estos sistemas son excepcionales y demuestran una capacidad sin precedentes en la identificación de patrones sutiles, la correlación de datos aparentemente dispares y la generación de contenido sorprendentemente coherente y contextualmente relevante, carecen fundamentalmente de un entendimiento intrínseco o una percepción consciente de la verdad objetiva o la falsedad inherente de la información que procesan o generan. 

 

Su "conocimiento" no es fáctico en el sentido cognitivo humano, sino que se basa en la predicción estadística de la respuesta más probable o la secuencia de palabras más plausible y coherente, dadas las entradas que reciben. Es precisamente esta naturaleza predictiva, probabilística y desprovista de un "sentido común" inherente la que los hace intrínsecamente y fundamentalmente susceptibles a inventar, fabricar o "alucinar" información que, aunque en su construcción formal pueda parecer plausible y bien articulada, carece por completo de fundamento en la realidad empírica. 

 

Las pruebas más recientes y los estudios de referencia han revelado tasas de alucinación que son, cuanto menos francamente alarmantes y exigen una atención urgente. 

 

Por ejemplo, en ensayos específicos diseñados para evaluar la confiabilidad, se ha documentado que el sistema o4-mini de OpenAI alucinó en hasta un 79% de las consultas en ciertas pruebas de verificación de hechos. Amr Awadallah, el influyente y reconocido CEO de Vectara, una startup de IA que se especializa en el desarrollo de tecnologías de búsqueda conversacional y recuperación aumentada, ha sido categórico al enfatizar que estas alucinaciones no son meros defectos pasajeros, sino que constituyen un rasgo inherente, estructural y, hasta ahora, ineludible de los sistemas actuales de IA.

 

En su opinión, estas "nunca desaparecerán" por completo, lo que sugiere que no se trata de un simple "bug" que pueda ser corregido con una actualización de software trivial, sino de una característica intrínseca y fundamental de su arquitectura subyacente y de su modo de operación basado en modelos probabilísticos de gran escala.

 

Implicaciones en el mundo real: Donde la IA y la realidad colisionan con consecuencias tangibles y a menudo severas 

 

Si bien la aparición ocasional de alucinaciones puede resultar relativamente inofensiva o incluso cómica en tareas triviales de entretenimiento o en interacciones informales donde la precisión no es crítica, su presencia se transforma en un problema de proporciones graves y con consecuencias tangibles, a menudo muy severas, en áreas que demandan y exigen una precisión infalible, una veracidad irrefutable y una fiabilidad absoluta. 

 

Esto incluye, pero de ninguna manera se limita, al ámbito legal y jurídico, el sector médico y sanitario, la ingeniería de alta precisión, las finanzas y la banca, la industria farmacéutica, la defensa y seguridad nacional, o cualquier otro contexto donde la manipulación, la invención o la tergiversación de datos cruciales, ya sean comerciales, técnicos, legales o científicos, puedan tener repercusiones críticas, desde multas millonarias hasta la pérdida de vidas humanas.

 

Ejemplos concretos de alucinaciones y sus consecuencias que ilustran la magnitud y la diversidad del problema: 

 

En el ámbito legal y jurídico: El caso de los abogados de Wyoming. Un caso que capturó la atención mediática internacional y generó un intenso debate sobre la ética y la responsabilidad en el uso de la IA involucró a dos abogados en Wyoming, Estados Unidos. Estos profesionales, en su afán por optimizar y acelerar la preparación de una demanda legal contra la gigantesca corporación Walmart, decidieron utilizar un modelo de IA avanzado para generar precedentes legales y argumentos jurídicos. 
El resultado fue un desastre sin precedentes: el bot de IA, en su "alucinación", incluyó en el documento judicial presentado ante la corte casos y precedentes legales que eran completamente falsos, fabricados enteramente por la inteligencia artificial y que no existían en la jurisprudencia real.

 


Esta grave negligencia, impulsada por la confianza ciega en la IA, llevó a que un juez federal amenazara con imponer severas sanciones económicas y disciplinarias a los abogados, subrayando de manera contundente la imperiosa e ineludible necesidad de una verificación humana rigurosa, experta y ética en este tipo de documentos críticos, donde la integridad y la veracidad de la información son fundamentales para la administración de justicia y la preservación del estado de derecho.

 


En la información periodística y de noticias: La proliferación de "fake news" por IA. Un exhaustivo estudio de referencia, realizado por la prestigiosa British Broadcasting Corporation (BBC), reveló un patrón preocupante en el comportamiento de los chatbots de IA cuando eran consultados sobre eventos noticiosos recientes o información de actualidad. 

 

Los resultados mostraron que estos sistemas exhibían una propensión alarmante a la inexactitud y la invención. Hasta el 51% de sus respuestas contenían errores significativos, incluyendo la invención de citas directas de personas que nunca las habían pronunciado, la tergiversación de hechos fundamentales, la creación de escenarios y cronologías de eventos que nunca ocurrieron, o la atribución de opiniones a figuras públicas de manera errónea. Esta cruda realidad plantea serias y profundas dudas sobre la idoneidad y la confiabilidad de la IA como una herramienta para la difusión de información veraz y periodísticamente rigurosa, un pilar fundamental de las sociedades democráticas que dependen de la información fidedigna. 

 

En motores de búsqueda integrados con IA y asistentes conversacionales: La desorientación geográfica y la invención de datos numéricos. Aunque conceptualmente muy útiles para agilizar la recuperación de información y ofrecer experiencias de usuario más interactivas, los bots de IA que están intrínsecamente vinculados a motores de búsqueda populares como Google y Bing pueden generar resultados de búsqueda que son absurdamente erróneos o completamente ilógicos y desorientadores. 

 

Por ejemplo, al preguntar a uno de estos sistemas por "la maratón en la Costa Oeste de Estados Unidos", el bot podría, de forma completamente ilógica y sin base alguna, sugerir una carrera en Filadelfia, una ciudad que se encuentra geográficamente en la costa este, contradiciendo directamente la solicitud inicial. 

 

La falta de consistencia, coherencia lógica y adhesión estricta a los hechos no solo se limita a la información geográfica, sino que puede manifestarse en cualquier tipo de dato que procesan o generan. Además, los modelos de razonamiento, al descomponer problemas complejos en una serie de pasos secuenciales para su análisis y resolución, pueden acumular pequeños errores o imprecisiones en cada fase del proceso. 

 

Estos errores, aunque insignificantes individualmente, pueden magnificarse exponencialmente a medida que el sistema avanza a través de su cadena de razonamiento, culminando en una imprecisión final significativa o una alucinación completa. 

 

Hannaneh Hajishirzi, una destacada profesora de la Universidad de Washington y una voz influyente en el campo de la IA, señala que, a pesar del desarrollo de herramientas sofisticadas y técnicas avanzadas diseñadas para rastrear y comprender el comportamiento interno de la IA hasta los datos de entrenamiento específicos, la complejidad inherente y la naturaleza de "caja negra" de estos sistemas masivos dificultan enormemente una comprensión completa y transparente de por qué exactamente "alucinan" de la manera en que lo hacen. El desafío reside en desentrañar las interacciones no lineales entre miles de millones de parámetros y vastos conjuntos de datos.

 

En conclusión, la promesa transformadora de la inteligencia artificial en el mundo corporativo y en la sociedad en general es inmensa y sigue siendo una fuente de optimismo. Sin embargo, su talón de Aquiles, y quizás el mayor obstáculo para su adopción masiva y confiable, radica en su persistente e intrínseca propensión a la fabulación y la invención de información. 

 

La fiabilidad, la precisión y la veracidad de estos sistemas son desafíos críticos y multifacéticos que los investigadores, los desarrolladores y las organizaciones deben abordar con urgencia, ética y rigor científico. Solo garantizando que la IA se convierta en una herramienta verdaderamente confiable, transparente y responsable, y no en una fuente sofisticada y convincente de desinformación, podremos desbloquear todo su potencial y asegurar que beneficie a la humanidad de manera sostenible.

 

LA MEJOR OPCIÓN PARA VER NUESTROS CONTENIDOS
Suscribite a El Diario de la República y tendrás acceso primero y mejor para leer online el PDF de cada edición papel del diario, a nuestros suplementos y a los clasificados web sin moverte de tu casa

Temas de nota:

Suscribite a El Diario y tendrás acceso a la versión digital de todos nuestros productos y contenido exclusivo