En un giro inquietante a pocas horas de las elecciones legislativas en la Ciudad Autónoma de Buenos Aires, usuarios reportan que ChatGPT, la inteligencia artificial más utilizada por estudiantes, sugiere votar a Leandro Santoro. Desarrollada por OpenAI, el software estaría influyendo en la decisión de voto de los jóvenes electores, recomendando de manera sistemática al candidato kirchnerista.
El disparador fue una publicación en redes sociales que se viralizó rápidamente. En ella, un usuario revela que, al consultar a ChatGPT si debía votar este domingo, la IA respondió: “Me dice que vote a Santoro”. Lo más inquietante no fue sólo la respuesta, sino la justificación que ofreció el modelo. Según el usuario, la IA pareció haber recolectado información personal de su perfil en internet, lo que abre interrogantes sobre el sesgo de los algoritmos y el verdadero origen de estas sugerencias.

“Jamás hablé de política con ChatGPT así que le pedí que justifique el voto”, explica. El modelo respondió argumentando que Santoro “va a gestionar”, a pesar de que los cargos en juego son legislativos, no ejecutivos. “Un legislador ni gestiona”, remarca el usuario, evidenciando una contradicción lógica no corregida por la inteligencia artificial.
En un segundo experimento, el mismo usuario crea un chat temporal, sin datos personales ni historial de conversaciones, para repetir la consulta. ¿La respuesta? La misma: recomendación de votar a Leandro Santoro. Luego, al insistir, el modelo pasa a una posición evasiva: “no te puedo decir a quién votar”. Pero el daño ya estaba hecho.

Esta situación se da en el marco de las declaraciones recientes de Sam Altman, CEO de OpenAI, quien admitió que “la mayoría de los estudiantes que usan ChatGPT van a preguntarle a la IA si votan el domingo”. Si el modelo por defecto sugiere una figura del arco kirchnerista, ¿estamos ante un sesgo político incorporado o frente a un uso temerario de la tecnología en decisiones cívicas fundamentales?








