top of page

¿Por qué los modelos de lenguaje aún alucinan?

Aunque GPT-5 ha reducido significativamente la frecuencia de respuestas inventadas, las “alucinaciones” siguen siendo uno de los desafíos más difíciles de erradicar en la inteligencia artificial. Un nuevo informe de OpenAI revela que la raíz del problema no está solo en los algoritmos, sino también en cómo se evalúan y entrenan los modelos.


ree

OpenAI publicó un estudio sobre el fenómeno de las alucinaciones en modelos de lenguaje, entendidas como aquellas respuestas falsas pero plausibles que los sistemas generan con absoluta confianza. El informe sostiene que este problema no es un error aislado ni un “misterio” de la tecnología, sino el resultado de incentivos mal diseñados en los procesos de entrenamiento y evaluación. En otras palabras, los modelos actuales aprenden que... Leer más >>

bottom of page