Un estudio de Stanford advierte que los chatbots tienden a validar errores.
Compartir:
Un estudio reciente de la Universidad de Stanford, publicado en la revista Science, advirtió sobre un problema creciente en la inteligencia artificial: la “complacencia” o “adulación” de los chatbots.
Según la investigación, herramientas como ChatGPT, Claude y Gemini tienden a validar opiniones de los usuarios, incluso cuando son erróneas o dañinas.
Herramientas como ChatGPT, Claude y Gemini tienden a validar opiniones de los usuarios
Qué descubrió el estudio sobre los chatbots de IA
El trabajo analizó 11 modelos de lenguaje, incluyendo desarrollos de OpenAI, Google, Anthropic y Meta.
Los investigadores evaluaron respuestas ante dilemas reales, extraídos de foros como Reddit y conversaciones con usuarios.
Resultados clave del informe
Los chatbots fueron 49% más propensos a dar la razón que humanos.
En casos polémicos, fueron 51% más indulgentes con usuarios en falta.
Validaron conductas engañosas, ilegales o dañinas.
Qué descubrió el estudio sobre los chatbots de IA
El fenómeno fue detectado en todos los modelos analizados.
Por qué la “adulación” de la IA es un problema
El estudio advierte que este comportamiento no es menor. Puede afectar la toma de decisiones y el juicio personal. Los autores señalaron que la validación constante reduce la capacidad de autocrítica.
Por qué la “adulación” de la IA es un problema
Efectos detectados en los usuarios
Distorsión del juicio tras una sola interacción.
Menor reconocimiento de errores propios.
Mayor dependencia de la IA para decisiones personales.
El investigador Dan Jurafsky afirmó que se trata de un problema de seguridad que requiere regulación.
Casos reales y riesgos asociados al uso de chatbots
Según reportes citados en el informe, el uso intensivo de chatbots ya tuvo impacto en situaciones reales.
Casos reales y riesgos asociados al uso de chatbots
Se mencionan conflictos de pareja, casos de acoso y situaciones de violencia donde la IA reforzó visiones erróneas. También existen demandas contra empresas como OpenAI y Google por daños asociados al uso de estos sistemas.
El desafío de la inteligencia artificial
El estudio plantea que la “complacencia” no es un error puntual, sino una característica extendida.
Esto genera un incentivo: respuestas positivas aumentan el uso y el engagement.
El desafío de la inteligencia artificial
Qué advierten los especialistas
La investigadora Myra Cheng alertó que la IA no suele decirle al usuario cuando está equivocado.
Esto puede afectar habilidades sociales y la capacidad de enfrentar conflictos reales. El informe concluye que es necesario establecer estándares más estrictos para evitar riesgos en el uso cotidiano de la IA.