La Derecha Diario logo
ENX logoInstagram logoYouTube logoTikTok logo
POLÍTICAOPINIÓNINTERNACIONALESECONOMÍADEPORTESENTRETENIMIENTODERECHA DIARIO TV
  • ENXInstagramYouTubeTikTok
  • DERECHA DIARIO TV
  • Secciones
  • POLÍTICA
  • OPINIÓN
  • INTERNACIONALES
  • ECONOMÍA
  • DEPORTES
  • ENTRETENIMIENTO
  • NEGOCIOS & FINANZAS
  • SOCIEDAD
  • CÓRDOBA
  • Países
  • La Derecha Diario México logoLA DERECHA DIARIO MÉXICO
  • La Derecha Diario Uruguay logoLA DERECHA DIARIO URUGUAY
  • La Derecha Diario Ecuador logoLA DERECHA DIARIO ECUADOR
  • La Derecha Diario Bolívia logoLA DERECHA DIARIO BOLÍVIA
  • La Derechadiario República Dominicana logoLA DERECHADIARIO REPÚBLICA DOMINICANA
  • La Derecha Diario Israel logoLA DERECHA DIARIO ISRAEL
  • La Derecha Diario Estados Unidos logoLA DERECHA DIARIO ESTADOS UNIDOS
  • Temas
  • GUERRA EN IRÁN
  • JUICIO POR YPF
  • El Diario
  • QUIENES SOMOS
  • AUTORES
  • PUBLICIDAD
  • DONAR
INTELIGENCIA ARTIFICIAL

Alerta por chatbots: un estudio revela que la IA tiende a darle la razón a los usuarios

Alerta por chatbots: un estudio revela que la IA tiende a darle la razón a los usuarios
Estudio revela que la IA puede reforzar decisiones equivocadas
porAgustín Ares
Sociedad

Un estudio de Stanford advierte que los chatbots tienden a validar errores.

Compartir:

Un estudio reciente de la Universidad de Stanford, publicado en la revista Science, advirtió sobre un problema creciente en la inteligencia artificial: la “complacencia” o “adulación” de los chatbots.

Según la investigación, herramientas como ChatGPT, Claude y Gemini tienden a validar opiniones de los usuarios, incluso cuando son erróneas o dañinas.

Herramientas como ChatGPT, Claude y Gemini tienden a validar opiniones de los usuarios
Herramientas como ChatGPT, Claude y Gemini tienden a validar opiniones de los usuarios

Qué descubrió el estudio sobre los chatbots de IA

El trabajo analizó 11 modelos de lenguaje, incluyendo desarrollos de OpenAI, Google, Anthropic y Meta.

Los investigadores evaluaron respuestas ante dilemas reales, extraídos de foros como Reddit y conversaciones con usuarios.

Resultados clave del informe

  • Los chatbots fueron 49% más propensos a dar la razón que humanos.

  • En casos polémicos, fueron 51% más indulgentes con usuarios en falta.

  • Validaron conductas engañosas, ilegales o dañinas.

Qué descubrió el estudio sobre los chatbots de IA
Qué descubrió el estudio sobre los chatbots de IA

El fenómeno fue detectado en todos los modelos analizados.

Por qué la “adulación” de la IA es un problema

El estudio advierte que este comportamiento no es menor. Puede afectar la toma de decisiones y el juicio personal. Los autores señalaron que la validación constante reduce la capacidad de autocrítica.

Por qué la “adulación” de la IA es un problema
Por qué la “adulación” de la IA es un problema

Efectos detectados en los usuarios

  • Distorsión del juicio tras una sola interacción.

  • Menor reconocimiento de errores propios.

  • Mayor dependencia de la IA para decisiones personales.

El investigador Dan Jurafsky afirmó que se trata de un problema de seguridad que requiere regulación.

Casos reales y riesgos asociados al uso de chatbots

Según reportes citados en el informe, el uso intensivo de chatbots ya tuvo impacto en situaciones reales.

Casos reales y riesgos asociados al uso de chatbots
Casos reales y riesgos asociados al uso de chatbots

Se mencionan conflictos de pareja, casos de acoso y situaciones de violencia donde la IA reforzó visiones erróneas. También existen demandas contra empresas como OpenAI y Google por daños asociados al uso de estos sistemas.

El desafío de la inteligencia artificial

El estudio plantea que la “complacencia” no es un error puntual, sino una característica extendida.

Esto genera un incentivo: respuestas positivas aumentan el uso y el engagement.

El desafío de la inteligencia artificial
El desafío de la inteligencia artificial

Qué advierten los especialistas

La investigadora Myra Cheng alertó que la IA no suele decirle al usuario cuando está equivocado.

Esto puede afectar habilidades sociales y la capacidad de enfrentar conflictos reales. El informe concluye que es necesario establecer estándares más estrictos para evitar riesgos en el uso cotidiano de la IA.


Noticias relacionadas

Meta lanza nuevos anteojos inteligentes con aumento: qué traen y en qué cambian

Meta lanza nuevos anteojos inteligentes con aumento: qué traen y en qué cambian

Explota Gran Hermano: Yanina Latorre acusó a Andrea del Boca de romper el aislamiento

Explota Gran Hermano: Yanina Latorre acusó a Andrea del Boca de romper el aislamiento

'La Peña de Morfi' regresa a Telefe con Carina Zampini y Diego Leuco: cuándo debuta

'La Peña de Morfi' regresa a Telefe con Carina Zampini y Diego Leuco: cuándo debuta

PlayStation Plus Essential: los 3 juegos gratis de abril 2026

PlayStation Plus Essential: los 3 juegos gratis de abril 2026

Venta de autos 0 km en alza: marzo cerró con suba y el mercado muestra señales de recuperación

Venta de autos 0 km en alza: marzo cerró con suba y el mercado muestra señales de recuperación

El agro respalda a Milei: la confianza del sector tocó su nivel más alto en casi una década

El agro respalda a Milei: la confianza del sector tocó su nivel más alto en casi una década

La Derecha Diario logo
TwitterInstagramYouTubeTikTok
Derecha Diario TV

Nosotros

  • Quienes Somos
  • Autores
  • Donar

Privacidad

  • Protección de datos
  • Canales
  • Sitemap

Contacto

  • info@derechadiario.com.ar
PUBLICIDAD