💡 Resumen (TL;DR):
- Un estudio demuestra que el autocompletado de texto con inteligencia artificial modifica posturas sobre temas sociales controversiales.
- El experimento evaluó a más de 2,500 participantes y descubrió que las alertas previas de sesgo son inútiles para detener el efecto.
- Interactuar al escribir crea una influencia cognitiva profunda que los métodos tradicionales contra la desinformación no logran frenar.
Las herramientas de escritura impulsadas por inteligencia artificial que sugieren cómo terminar una oración cambian silenciosamente las posturas políticas de los usuarios. Una investigación de Cornell Tech, publicada este miércoles en la revista Science Advances, demostró que interactuar con modelos de lenguaje sesgados modifica la opinión humana, y ninguna advertencia previa o posterior logra detener este efecto.
Los investigadores realizaron dos experimentos masivos con más de 2,500 participantes. La prueba consistió en redactar ensayos cortos sobre debates polarizantes, como la pena de muerte, el fracking, los exámenes estandarizados, los transgénicos y los derechos de voto para exconvictos.
Quienes utilizaron un asistente de escritura que ofrecía sugerencias automáticas sesgadas terminaron ajustando su propia postura hacia la posición de la IA en encuestas posteriores. La mayoría de los encuestados jamás notó la manipulación algorítmica.
“La investigación previa sobre desinformación ha demostrado que advertir a las personas antes de que se expongan a información falsa, o informarles después, puede proporcionar ‘inmunidad’ contra creerla”, explicó Sterling Williams-Ceci, candidato doctoral en ciencia de la información en Cornell y autor principal del estudio. “Así que nos sorprendió porque ninguna de esas intervenciones redujo realmente la medida en que las actitudes de las personas cambiaron hacia el sesgo de la IA en este contexto”.

La diferencia mecánica: leer contra escribir
El equipo comprobó si el formato de entrega importaba. Mostrar a los participantes una lista estática con argumentos parciales generó un impacto mucho menor. El simple acto de incorporar las sugerencias en la redacción propia profundiza la influencia ideológica directamente en el cerebro del usuario.
El problema escala a medida que el software predictivo domina ecosistemas enteros. “Era menos frecuente y se limitaba a finalizaciones cortas hace tres años, pero hoy en día Gmail, por ejemplo, sugerirá escribir correos electrónicos completos en tu nombre”, señaló Mor Naaman, autor principal y profesor de ciencia de la información en Cornell. “Ha quedado claro que el sesgo construido explícitamente en las interacciones de IA es un escenario muy plausible”.
Estos descubrimientos cuestionan la utilidad de las etiquetas de transparencia y las campañas de alfabetización mediática frente a un código que participa activamente en el pensamiento de las personas. La alerta de los académicos es directa. Como expresó Williams-Ceci: “La influencia es encubierta. Las personas no la notan y son incapaces de resistirla”.