Tecnología

Las leyes de la robótica de Asimov son una utopía

Un sueño que se hará realidad dentro de mucho, mucho tiempo

La Rebelión de las Máquinas no llegará. Al menos no de la manera en la que Hollywood nos ha hecho creer. Pese a que se trata de un gran argumento para la ciencia ficción, los robots y la inteligencia artificial no tienen —ni tendrán— motivos para destruir nuestra civilización y esclavizarnos. Al menos no si la manera en la que aprenden sigue siendo como hasta ahora, por algoritmos, lo que a su vez nos lleva a otro tipo de problemas que ya empezamos a ver con nuestras máquinas.

Éste es un K5, guardían del orden para centros comerciales... siempre y cuando así lo dicte su programación
Éste es un K5, guardían del orden para centros comerciales... siempre y cuando así lo dicte su programación

Hace unos días, una unidad de vigilancia K5 de Knightscope golpeó y atropelló a un infante de 16 meses en el estacionamiento de un centro comercial en Stanford, en Silicon Valley. Según el reporte de Knightscope, la unidad tumbó al niño por accidente, después de varios intentos de evadirlo. El robot, que había patrullado más de 25,000 millas a $6.25 USD la hora (mucho menos que el salario mínimo de California) no había ocasionado ningún accidente hasta ahora. Según autoridades de Knightscope, el pequeño corrió emocionado hacia el robot, se puso en su camino y la unidad se detuvo. La máquina trató de girar para evitar una colisión con el niño, pero no logró su objetivo y lo derribó, pasándole por encima del pie con una de sus llantas.

Aunque el accidente no pasó a más y el pequeño sólo sufrió una raspadura y varios moretones (aparte de terror absoluto), el incidente representa un fallo catastrófico para las leyes de la robótica de Asimov, que poco a poco se convierten más en un marco filosófico utópico, que en una ley científica. Hay varios motivos detrás de esto.

¿Quién está detrás de la inteligencia artificial y del robot?

La primera razón para que ocurra un accidente o una falla, sea el del robot de vigilancia K5 de Stanford o los tres choques que han ocurrido en Modelos S de Tesla con el sistema de navegación autónoma activado, es quién maneja al robot. ¿El robot se maneja solo? Y si es así, ¿cómo se diseñó el programa que lo maneja? Otra pregunta importante, quizá menos evidente para alguien que no sea un entusiasta en el tema —y que en muchos casos puede ser la más relevante— es: ¿cómo aprende la inteligencia artificial detrás del robot?

Los sistemas de conducción autónoma todavía son imprecisos y poco confiables; a pesar de todo hay personas que les tienen fe ciega
Los sistemas de conducción autónoma todavía son imprecisos y poco confiables; a pesar de todo hay personas que les tienen fe ciega

En el caso del K5 de Knightscope la máquina es autónoma, pero también es monitoreada por guardias de seguridad humanos, quienes pueden controlarlo de manera remota o guiarlo hacia áreas específicas para investigar. En el caso del sistema de navegación del Tesla S, se trata de un sistema de ayuda y actualmente no pretende reemplazar por completo al conductor. En dos de los tres accidentes que han ocurrido con Tesla S, el conductor humano no iba prestando atención al camino y en uno ni siquiera tenía las manos sobre el volante. El primer caso (y el único fatal), sin embargo, es relevante pues dejó en claro que existen fallas graves en el sistema, y puede estar relacionado con el error del K5 de no detenerse por completo.

Para responder a ambas situaciones es necesario escarbar un poco en cómo aprenden los sistemas de inteligencia artificial. Es necesario saber cómo aprenden para entender cómo llegan a las conclusiones a las que llegan y cómo esta manera de pensar puede llevar a un accidente.

¿Cómo aprenden nuestros robots?

Con los programas simples de aprendizaje artificial la respuesta es muy sencilla: un programador guía a la máquina introduciendo información relevante y después echa a andar un algoritmo. La máquina aprende en base a ese algoritmo, descartando información irrelevante y añadiendo la relevante. Un robot buscador, por ejemplo, no sabrá qué es un “gato” hasta que se le enseñen las suficientes fotografías de gatos y pueda buscar en Internet por imágenes similares. Este tipo de aprendizaje es sumamente limitado y, en estos tiempos, obsoleto.

Con Deep Learning, las computadoras tienen la posibilidad de aprender de una manera más parecida a como aprendemos nosotros, al menos en teoría. Deep Mind de Google, aprende no sólo comparando imágenes, sino procesando información cruda de internet, desde textos a archivos de audio y video. Sin embargo, no estamos completamente seguros cómo es que sistemas que aprenden con Deep Learning llegan a conclusiones. Y pese a que en el 99% de los casos llegan a la conclusión correcta, el 1% restante es sumamente peligroso y es necesario saber cómo llegan ahí para poder corregirlo.

En un experimento que realizaron dos estudiantes de la Virginia Tech University, bajo la tutela de Dhruv Batra, especialista en percepción de máquinas, se encontró que las computadoras no buscan información basada en hechos del mundo, sino en tendencias encontradas en sets de datos. Abishek Das y Harsh Agrawal, los estudiantes que llevaron a cabo el experimento, encontraron que al hacerles las mismas preguntas a humanos y computadoras, las respuestas eran distintas en muchos casos.

El experimento consistió en mostrar imágenes a los encuestados y preguntarles algo respecto a esa imagen para monitorear dónde los humanos y las máquinas enfocaban su atención. Al mostrar una imagen de un hombre vestido, se preguntaba: “¿de qué color son los zapatos del hombre en esta imagen?” Lo lógico sería que la atención se enfocara en la parte inferior de la imagen, donde se encontraban los pies del hombre, y así funcionó para los encuestados humanos, pero las máquinas no siempre llegaban a esa conclusión.

Que una inteligencia artificial le haya ganado al campeón de Go es un logro digno de elogio, pero eso no significa que ese mismo tipo de programación puede resolver dilemas de la vida cotidiana
Que una inteligencia artificial le haya ganado al campeón de Go es un logro digno de elogio, pero eso no significa que ese mismo tipo de programación puede resolver dilemas de la vida cotidiana

Por medio de imaginería de calor se hizo un “mapa de atención”. En la mayoría de las imágenes tanto máquinas como humanos estuvieron de acuerdo, pero en preguntas como “¿qué cubre las ventanas de la habitación?” las computadoras no buscaron en las ventanas sino en las camas. Esta pregunta fue clave para encontrar el error de procesamiento de las máquinas, pues al preguntarles por la habitación automáticamente se enfocaron en la cama. Esto puede deberse a que “habitación” en inglés se dice “bedroom”, lo que vuelve relevante la palabra “bed” (cama) para una máquina que funciona a base de algoritmos, pero también porque suele considerarse la pieza más relevante de una habitación.

La conclusión del estudio es que la manera en la que aprendieron estas computadoras, entrenadas para buscar a través de reconocimiento de imágenes, las lleva a buscar la cama en una habitación y a ignorar la pregunta que se les hizo. Esto puede no ser un problema grave para un programa cuya función es organizar imágenes, pero para un robot de vigilancia o un sistema de manejo autónomo puede ser la diferencia entre cumplir su labor de manera ejemplar, o cometer un error fatal.

¿Cómo deben aprender nuestros robots?

Según Batra, la manera en la que aprenden nuestros robots es tan importante como la manera en la que pueden explicarnos cómo llegaron a una conclusión. No basta con que nuestros robots sean inteligentes, sino que también sean inteligibles. Entre más responsabilidades tengan nuestros robots será importante que tengan la capacidad de explicar el por qué de las decisiones que toman.

El reto, por un lado, es enseñar a nuestras máquinas a aprender y tomar decisiones no solamente en base a algoritmos. Si las máquinas calculan todo en base a procesos matemáticos únicamente, es irrelevante para un robot una vida humana: se trata de una variable más. El robot puede girar para evitar el obstáculo, sin asumir que su giro puede empujar a un bebé y al no tenerlo en cuenta en su escaneo, arrollarlo. Un robot que funciona en base a algoritmos puede omitir la presencia de un camión blanco iluminado por un sol demasiado fuerte, en un fondo demasiado brillante. En ese sentido, las leyes de la robótica no tienen sentido alguno, pues el robot no entiende lo que significa “humano” aparte de una categoría de catálogo.

Batra, así como Stephen Wolfram, creen que conforme las capacidades de aprendizaje de nuestras inteligencias artificiales evolucionan, debemos enseñarles a pensar de manera “humana”. A tomar decisiones en base a hechos, datos y valores. Aún así, eso no garantizaría que las leyes de Asimov puedan convertirse en una realidad, pues que las máquinas puedan ser programadas significa que pueden ser controladas.

¿Las leyes de la robótica son obsoletas?

Pese a todos los esfuerzos que hagamos por enseñarle a nuestros robots que no deben dañar a los humanos, los accidentes pueden pasar. Pero también, las leyes de Asimov pueden ser excluidas en la programación de un robot: nada lo impide. Quizá el escenario del que en verdad debemos tener cuidado no es el de Skynet, ni el de la Matrix, en el que las máquinas cobran conciencia y deciden exterminar a la humanidad al considerarla una amenaza para su subsistencia. Más bien, el futuro podría albergar guerras en las que los robots sean utilizados como armas autónomas bajo el control de fuerzas militares humanas. Un futuro en el que la inteligencia artificial puede servir a unos cuantos, programada para ejercer control sobre la población, para vigilar, para someter a la ciudadanía.

En realidad no estamos tan lejos de que eso suceda. ¿Qué es un drone sino un robot? La maquinaria de guerra estadounidense hace uso de ellos desde hace varios años y los ha convertido en política. En ese sentido, las leyes de Asimov son y seguirán siendo irrelevantes en cuanto imposibles, utópicas. Pues para que los robots no dañen a ningún ser humano, primero ningún ser humano debe dañar a otro ser humano. Y eso, al menos hasta donde vamos en nuestra historia, parece que nunca va a suceder.

Deja tu comentario

Nuevo

  • Nuevo

  • Trending

  • Lo Mejor

Subir
Advertising