Adrien - Viernes 27 Junio 2025

Las alucinaciones de la IA: lo que opinan los expertos

Las investigaciones realizadas por OpenAI revelan que los modelos o3 y o4-mini producen respuestas incorrectas en el 33% y 48% de los casos, respectivamente. Esta tendencia, calificada como alucinación, plantea interrogantes sobre la fiabilidad de los sistemas de IA, especialmente en ámbitos críticos como la medicina o las finanzas. Eleanor Watson, experta en ética de la IA, subraya los riesgos de estos errores sutiles pero potencialmente graves.


La alucinación no es simplemente un defecto, sino una característica inherente a los modelos de lenguaje. Sohrob Kazerounian, investigador en IA, explica que esta capacidad de generar contenido original es lo que permite a la IA crear, y no solo reproducir. Sin esta facultad, los sistemas de IA estarían limitados a respuestas preexistentes, sin posibilidad de innovación (ver capítulo al final del artículo).


Sin embargo, el problema se complica con los modelos más avanzados. Las alucinaciones se vuelven menos evidentes y más difíciles de detectar, integradas en narrativas plausibles. Eleanor Watson explica que esto puede erosionar la confianza en los sistemas de IA, especialmente cuando los usuarios toman la información al pie de la letra.

Las soluciones para mitigar este fenómeno incluyen el uso de fuentes externas para verificar la información generada. Eleanor Watson menciona también la importancia de estructurar el razonamiento de los modelos y enseñarles a reconocer su propia incertidumbre. Estos enfoques, aunque imperfectos, podrían mejorar la fiabilidad de las respuestas.

Finalmente, Sohrob Kazerounian recuerda que, ante las limitaciones de la IA, es necesario mantener cierto escepticismo. Al igual que con la información proporcionada por humanos, es importante verificar los datos producidos por los modelos de lenguaje, especialmente donde la exactitud es primordial.

¿Por qué las IA alucinan?


La alucinación en los modelos de IA es un fenómeno que surge de su capacidad para generar contenido original. A diferencia de los sistemas tradicionales que se basan en datos existentes, los modelos de lenguaje avanzados intentan crear respuestas nuevas, lo que puede llevar a invenciones.

Esta capacidad es esencial para tareas creativas, como la redacción o el diseño, donde se valora la innovación. Sin embargo, se vuelve problemática cuando la IA se utiliza para proporcionar información factual, donde se exige precisión.

Los investigadores trabajan en métodos para reducir estas alucinaciones sin sofocar la creatividad de los modelos. Entre estos métodos, destacan el uso de bases de datos externas para verificar hechos o la introducción de mecanismos de verificación interna.

A pesar de estos esfuerzos, la alucinación sigue siendo un problema importante, especialmente con el rápido avance de las capacidades de los modelos de IA.

Fuente: OpenAI
Ce site fait l'objet d'une déclaration à la CNIL
sous le numéro de dossier 1037632
Informations légales