Logos de ChatGPT y Gemini junto a un robot humanoide en actitud pensativa sobre fondo azul
SOCIEDAD

OpenAI explica por qué la Inteligencia Artificial inventa datos en sus respuestas

OpenAI explicó por qué ChatGPT y otras IA “alucinan” con datos falsos y cómo trabajan para reducir los errores.

Que un modelo como ChatGPT invente información o dé respuestas erróneas ya es algo habitual. Usuarios de distintas plataformas comparten a diario ejemplos de estas “alucinaciones” en redes sociales.

El fenómeno genera desconfianza y plantea riesgos concretos. Según explicó OpenAI en su web oficial, el problema surge porque los sistemas de entrenamiento premian la suposición en lugar de reconocer la incertidumbre.

Cerebro digital brillante con circuitos y luces azules sobre un fondo tecnológico futurista
El fenómeno genera desconfianza y plantea riesgos concretos | La Derecha Diario

Por qué las IA alucinan con datos inventados

Los modelos de lenguaje funcionan como si enfrentaran un test de opción múltiple. Si no responden, obtienen cero puntos. Por eso, eligen “arriesgar” y dar una respuesta, aunque no tengan certeza.

Esto explica por qué rara vez dicen “no lo sé”. La estrategia de entrenamiento los empuja a adivinar antes que admitir desconocimiento, lo que eleva las chances de respuestas incorrectas.

Ejemplos de errores frecuentes

OpenAI cita casos como el del investigador Adam Tauman Kalai. Cuando se le preguntó a la IA por el título de su tesis doctoral, devolvió tres respuestas distintas y todas equivocadas.

Una inteligencia artificial autónoma con luces y cables conectados a su cabeza.
Los modelos de lenguaje funcionan como si enfrentaran un test de opción múltiple | La Derecha Diario

Lo mismo pasó al consultarle su cumpleaños: generó tres fechas diferentes, ninguna cierta. Según la compañía, esto muestra cómo el modelo apuesta al azar con la esperanza de acertar.

Qué concluye OpenAI sobre las alucinaciones

La empresa señaló que existen varios mitos sobre este problema:

  • La precisión nunca será del 100 %: hay preguntas imposibles de responder de manera exacta.
  • No son inevitables: los modelos pueden abstenerse de contestar si no tienen certeza.
  • No dependen solo de modelos grandes: incluso los pequeños pueden aprender a reconocer sus límites.
  • No son un glitch: surgen de los mecanismos estadísticos usados en el entrenamiento.
Un robot humanoide pensativo frente a una pizarra llena de fórmulas matemáticas complejas representa los peligros de la Inteligencia Artificial según el ex-CEO de Google, Eric Schmidt.
Qué concluye OpenAI sobre las alucinaciones | La Derecha Diario

El desafío de medir y evitar errores

Según OpenAI, ya existen pruebas diseñadas para evaluar las alucinaciones. Sin embargo, la mayoría de los sistemas prioriza la precisión estadística por sobre la “humildad” de admitir desconocimiento.

➡️ Sociedad

Más noticias: