
Un grupo de científicos del Instituto de Tecnología de Massachusetts presentaron DragGAN, un nuevo enfoque para controlar redes generativas adversarias (GANs) en cuanto a la generación de contenido visual. A diferencia de enfoques anteriores, DragGAN permite "arrastrar" puntos de la imagen de manera interactiva y precisa hacia puntos objetivo. Con DragGAN, es posible deformar imágenes con un control preciso sobre la posición de los píxeles, lo que permite manipular la pose, forma, expresión y diseño de diversas categorías de imágenes.

Estas manipulaciones producen resultados realistas, incluso en escenarios desafiantes como la generación de contenido oculto y la deformación de formas que siguen la rigidez del objeto. En las animaciones a lo largo de este artículo puedes ver cómo DragGAN puede permitirte mover pixeles para cambiar la perspectiva con la que vemos un objeto o sujeto, como poner a un perro que estaba de lado para que esté de frente, mover las patas de un caballo a otra posición o incluso generar una sonrisa con dientes de una simple sonrisa con la boca cerrada.

Como puedes ver, hacer las modificaciones es realmente sencillo, pues el menú es intuitivo y eficaz, al tiempo que ofrece resultados en tiempo real:

Por el momento esta herramienta no se puede usar libremente, pero en su sitio oficial podemos ver varios ejemplos impresionantes. Ahora solo queda esperar a que continúe esta investigación para saber si, eventualmente, pudiera ser utilizada por la gente común.