Un documento elaborado por la firma identifica las causas estructurales detrás de las respuestas falsas, pero plausibles, que estos sistemas generan
10.09.2025 • 16:20hs • Inteligencia Artificial
Inteligencia Artificial
Ola de quejas por las alucinaciones: OpenAI revela por qué ChatGPT se "inventa" respuestas
OpenAI, el gigante de Inteligencia Artificial (IA), publicó esta semana un informe revelador que arroja luz sobre uno de los fenómenos más debatidos en el campo: las llamadas "alucinaciones" en modelos de lenguaje como ChatGPT.
El documento, titulado ¿Por qué los modelos de lenguaje alucinan?, identifica las causas estructurales detrás de las respuestas falsas, pero plausibles, que estos sistemas generan, incluso en sus versiones más avanzadas como GPT-5.
OpenAI revela por qué ChatGPT se "inventa" respuestas
Según el estudio, las alucinaciones no son simples errores de programación ni fallos aislados, sino el resultado directo de cómo se entrenan y evalúan los modelos.
Durante el preentrenamiento, los sistemas aprenden a predecir la siguiente palabra en una secuencia de texto, sin contar con etiquetas que distingan entre afirmaciones verdaderas y falsas.
Este enfoque estadístico, aunque eficaz para generar lenguaje fluido, no garantiza precisión factual, especialmente cuando se trata de datos poco frecuentes o específicos.
OpenAI advirtió que el problema se agrava por los métodos de evaluación actuales, que premian la precisión sin penalizar las conjeturas. En otras palabras, los modelos son incentivados a "adivinar" antes que a reconocer su desconocimiento.
OpenAI revela el motivo de las alucinaciones en muchas respuestas que suele brindar ChatGPT
La compañía compara esta dinámica con un examen de opción múltiple: si el estudiante no sabe la respuesta, arriesgar puede sumar puntos, mientras que dejarla en blanco asegura un cero.
En el caso de ChatGPT, decir "no lo sé" puede ser interpretado como una falla, lo que lleva al sistema a preferir respuestas especulativas.
El informe incluye ejemplos concretos que ilustran el fenómeno. Uno de ellos muestra cómo el modelo inventó varios títulos de tesis para un investigador de OpenAI, Adam Tauman Kalai, y proporcionó tres fechas distintas para su cumpleaños, todas incorrectas.
Estos errores no se deben a fallos gramaticales —que suelen corregirse con más datos— sino a la incapacidad del modelo para verificar hechos únicos o poco comunes, que no siguen patrones reconocibles.
Como respuesta, la firma propone revisar los sistemas de evaluación para que los modelos puedan abstenerse de responder ante la incertidumbre.
La idea es penalizar las conjeturas erróneas y fomentar la honestidad algorítmica, permitiendo que los sistemas reconozcan sus límites sin ser castigados por ello.
"Las alucinaciones seguirán siendo un desafío fundamental", admite el informe, pero subraya que ajustar los incentivos podría reducir su frecuencia y mejorar la fiabilidad de la IA en sectores críticos como la salud, la educación y el asesoramiento legal