¿Qué es Wombo.ai, la app que hace que las fotos de famosos canten? La app viral y los peligros del deepfake

La app de moda nos ha hecho reír con su ridículo funcionamiento

Hacer que cualquier fotografía del rostro de una persona cobre vida y hasta logre cantar ya no es un trabajo únicamente para expertos en IA o personas que cuenten con las herramientas necesarias. Actualmente hacer que personajes de videojuegos o políticos canten algunas de las canciones más virales está al alcance de una aplicación. Su nombre es Wombo.ai.

En el uso del deepfake (como se conoce a la creación artificial de este tipo de vídeos) no todo es risa y diversión; incluso desde sus orígenes ha representado un problema, y todo parece indicar que la historia continuará. ¿Algún día habrá regulación? ¿Esto podría tener consecuencias más graves? Te lo contamos todo.

¿Qué es Wombo.ai? ¿Qué es un deepfake?

Algunas semanas atrás, Wombo.ai se convirtió en una aplicación bastante popular. Su particularidad consiste en permitir que cualquier fotografía puede ser animada mediante IA, de este modo nuestros rostros o los de las imágenes que coloquemos, en un abrir y cerrar de ojos estarán cantando alguno de los 18 éxitos pop que tiene la aplicación: desde Boom, Boom Boom! del grupo estadounidense Vengaboys hasta Don’t Cha de la agrupación femenina Pussycat Dolls.

Esta aplicación fue creada por Ben-Zion Benkhin, quien declaró para The Verge que desde que se lanzó el febrero ha registrado más de dos millones de descargas en Google. Esta app es de uso gratuito, y utiliza algunos anuncios como medio de monetización, además de su versión premium, la cual elimina la publicidad y también hace que el procesamiento de la información sea más rápido en comparación con la versión gratuita.

Utilizar esta aplicación es sencillo. Únicamente se debe usar una foto de nuestro rostro u otra que se encuentre en nuestra carpeta de imágenes y posteriormente se debe pulsar un botón para que la imagen se sincronice. El software de la aplicación hace el resto del trabajo.

Sin embargo, este software no es mágico, pues la aplicación funciona transformando caras al utilizar coreografía predefinida. Benkhin y su equipo lograron esto al grabar un video de base para cada canción en su estudio (una habitación de un departamento) y posteriormente se convirtió en la base para cada imagen.

Wombo llama la atención porque es uno de varios ejemplos donde se puede notar cómo la investigación de IA puede convertirse en un producto de consumo masivo en cuestión de semanas. Otros ejemplos de aplicaciones similares son RaFace y FaceApp. Incluso, hace unos meses Deep Nostalgia fue otra aplicación en la que se podía utilizar una foto antigua y gracias al aprendizaje automático las expresiones de las fotos antiguas de nuestros seres queridos eran animadas. Una combinación tecnológica inquietante pero que logró despertar nuestra curiosidad.

La buena noticia es que Wombo deja claro en su política de privacidad que si bien sí recolecta tu información al usar el servicio, se hace precisamente para mejorar el servicio y no se comparte con terceros cuando es necesario para el funcionamiento mismo de la app. Por otra manera, tus fotografías son eliminadas al término de la generación de tu contenido.

El pasado oscuro del deepfake

Encasillar una herramienta por el uso que los humanos hemos hecho de esta sin duda es uno de los temas que constantemente se tratan en la historias futuristas. No obstante, la realidad no se aleja demasiado de la ficción. En 2017, los deepfakes estuvieron en varios titulares gracias a que se utilizaba una herramienta de código abierto para colocar los rostros de mujeres famosas en videos para adultos. Esto ponía una realidad sobre la mesa (además de mostrar cómo algunas personas ven a las mujeres como objetos que pueden manipular), evidenció la posibilidad de que nuestros rostros terminarán en los lugares más indeseados y con fines que no habíamos aprobado.

Después de que en Reddit (donde solía compartirse este tipo de videos y surgió el termino “deepfakers” en 2017) y otras plataformas se eliminó el contenido, no sería más que el comienzo de los usos indebidos que conoceríamos del uso de la IA en el deepfake.

Muchos políticos se verían envueltos en el uso indebido de sus rostros. Uno de los casos más notables fue el de Brarack Obama: en el caso del expresidente se difundió un vídeo hecho por una persona que utilizaba la versión de escritorio de FakeApp, y si bien se trató de un ejercicio donde se mencionaba que era un video falso, de nuevo pudimos dimensionar el peligroso potencial de esta tecnología en el actual contexto de la información falsa.

¿Puede ser peligroso el deepfake aunque no seamos figuras públicas?

No ser figuras públicas no nos hace menos propensas a tener problemas cuando se trata de deepfake. Hace unos días se reportó el caso de una mujer en Estados Unidos que utilizó esta tecnología para amenazar con fotos y vídeos falsos a varias porristas, rivales de su hija, con el fin de que fueran expulsadas del colegio. En las imágenes con las que chantajeaba a las jóvenes se le podía ver de manera falsa bebiendo alcohol, fumando e incluso desnudas.
Además, también hay evidentes casos de suplantación de identidad que hemos visto incluso en fechas recientes con personas como Tom Cruise (y de lo terrorífico que puede ser que un tiktoker se vuelva una copia de un actor), por lo que el problema va un poco más allá de la falta de regulación.

Tan solo hace falta recordar el caso de las aplicaciones anteriores de este tipo, mismas que sugerían que podrían ser dueñas de las imágenes que se editaban. Por otro lado, también hay una utilización de los llamados “datos de rasgos faciales” mismos que suelen ser almacenados por las apps.

En el ámbito empresarial los peligros no son muy distintos. Gracias al uso de IA se calcula que el 2023 el 20% de los ataques para intentar robar y estafar utilizaran este tipo de herramientas. Algunas empresas ya lo han vivido. En 2019 el director ejecutivo de una empresa energética con sede en Reino Unido escuchó como su jefe le ordenó una transferencia de €220,000 a un proveedor de Hungría. Más tarde, aunque había reconocido el acento de su jefe, sabría que había sido parte de una estafa.

¿Más costos o beneficios en el deepfake?

Suplantación de identidad, ciberacoso, estafas, problemas con el almacenamiento de información sensible, daños a la (ya de por sí fracturada) democracia; estos son algunos de los malos usos que se ha dado a la IA mediante el deepfake, no obstante sería un error estigmatizar el uso de esta tecnología.

Quizá más que solamente señalar los hechos el siguiente paso sea lograr contar con software que nos permita distinguir de forma certera entre el contenido original y el que no lo es, además de establecer una regulación más formal.

¿Qué te parece esta noticia? ¡Déjanos tus comentarios!

Deja tu comentario

Nuevo

  • Nuevo

  • Trending

  • Lo Mejor

Subir
Advertising