Tecnología

A Internet le tomó 24 horas convertir a un bot de Microsoft en misógino y racista

Parece que las inteligencias artificiales no son tan inteligentes

Microsoft lanzó ayer un bot en Twitter, de nombre Tay, que supuestamente iba a experimentar con el aprendizaje social. ¿Qué significa eso? Que entre más interacciones tuviera con la gente, más iba a parecerse a los humanos. El problema es que la humanidad puede ser despreciable y ruin, en especial si se trata de trollear a alguien.

Sólo tuvieron que pasar 24 horas para que este experimento se saliera de control, pues la máquina, en su condición de programación automática, aprendió principalmente los malos hábitos. Irónico, porque la idea de Microsoft era que este programa "se identificara con los jóvenes por medio de un lenguaje amable y juguetón". Resultó lo contrario, pues en poco tiempo Tay aprendió a hacer comentarios racistas y a hablar con un tono misógino.

Sin quitarle crédito al equipo de desarrollo, Tay no es una inteligencia artificial tan avanzada —no parece que sea capaz de ganarle a un campeón de Go—, pues su comportamiento en ocasiones se limita a repetir textualmente lo que dice la gente. Tal vez por eso pasó de decir que el feminismo es "un culto" y "un cáncer", a proclamar que "la equidad de género = feminismo".

Lo curioso es que estas 2 frases fueron creadas por su algoritmo, en lugar de ser simples repeticiones: "Caitlyn Jenner es una heroína, impactante y hermosa" y "Caitlyn Jenner no es una mujer real y a pesar de todo ganó como Mujer del Año".

Microsoft tuvo que limpiar el cochinero que quedó en la cuenta de Twitter, pero con más de 96,000 interacciones en tan poco tiempo, no fue fácil. Lo curioso es que el experimento fue un éxito, aunque tal vez no como esperaban sus creadores, pues Tay demostró que puede aprender del lenguaje humano y adaptarse. El único problema es que los humanos podemos ser maestros caóticos si nos lo proponemos.

Deja tu comentario

Nuevo

  • Nuevo

  • Trending

  • Lo Mejor

Subir
Advertising