Vivobook S14 BannerZ890 Chipset Banner
Alucinar antes que admitir el desconocimiento: así reconoce OpenAI que están programados sus modelos

Alucinar antes que admitir el desconocimiento: así reconoce OpenAI que están programados sus modelos

por Edgar Otero

Las llamadas alucinaciones de la inteligencia artificial, un problema aún sin resolver, vuelven a estar en el centro del debate. OpenAI ha admitido en un artículo académico que sus modelos de lenguaje están programados de manera que, en muchos casos, generan respuestas falsas en lugar de reconocer que no tienen la información solicitada.

El documento, titulado Why Language Models Hallucinate, fue publicado a principios de septiembre por tres investigadores de OpenAI y un profesor de la Universidad de Georgia Tech. En él se explica que la mayoría de los métodos de evaluación actuales incentivan las respuestas incorrectas, ya que los modelos son recompensados por ofrecer una salida plausible, aunque sea errónea, en lugar de reconocer que no saben la respuesta.

Como ejemplo, los investigadores pidieron a un modelo que indicara la fecha de nacimiento de uno de los autores del estudio. La IA proporcionó tres respuestas distintas, todas incorrectas, porque su entrenamiento le lleva a priorizar dar una contestación sobre admitir que no conoce el dato.

Evaluaciones que fomentan la adivinanza

El informe señala que gran parte del problema radica en los métodos de evaluación, tan presentes en nuestro día a día. Muchos de ellos se inspiran en exámenes estandarizados, donde se penaliza dejar una respuesta en blanco. Así, un modelo que adivina parece más exitoso en los resultados que otro que opte por declarar desconocimiento.

Además, el origen de los datos de entrenamiento también influye. Mientras que en tareas como la ortografía los modelos cuentan con abundancia de ejemplos correctos, en hechos poco comunes, como fechas de cumpleaños, los datos aparecen pocas veces, lo que empuja a la IA a improvisar. Lo ideal, en esos casos, sería que el modelo admitiera que tiene poca información disponible como para dar una respuesta certera.

El estudio concluye que sería prácticamente imposible entrenar un modelo con un conjunto de datos completamente libre de errores. Por ello, la alternativa más viable sería modificar las evaluaciones y recompensar las expresiones de incertidumbre en lugar de penalizarlas. OpenAI afirma que ya ha introducido cambios en este sentido con su modelo GPT-5, aunque admite que todavía se producen errores significativos. De paso, con la llegada de la actualización más reciente a ChatGPT, OpenAI aprovechó para fulminar varios modelos.

Fin del Artículo. ¡Cuéntanos algo en los Comentarios!

Temas Relacionados: Software OpenAI ChatGPT GPT-5
Redactor del Artículo: Edgar Otero

Edgar Otero

Soy técnico en sistemas informáticos, empecé a experimentar un Pentium II, aunque lo mío siempre ha sido el software. Desde que actualicé de Windows 95 a Windows 98 no he dejado de instalar sistemas. Tuve mi época Linuxera y fui de los que pidió el CD gratuito de Canonical. Actualmente uso macOS para trabajar y tengo un portátil con Windows 11 en el que también he instalado Chrome OS Flex. En definitiva, experimentar, probar y presionar botones.

Comentarios y opiniones sobre: Alucinar antes que admitir el desconocimiento: así reconoce OpenAI que están programados sus modelos ¿Qué opinas? ¿Alguna pregunta?
BestiaBanquete Banner