Un usuario en Reddit conocido como " DeepFakes " ha abierto la caja de Pandora al mostrar vídeos porno y GIFs de actrices como Gal Gadot, Maisie Williams, Taylor Swift, Aubrey Plaza, Emma Watson y Scarlett Johansson. El detalle está en que estos vídeos no son reales sino creaciones de un algoritmo que pone los rostros de estas celebridades, con todo y expresiones, en los rostros de actrices porno.Lo más impresionante de todo esto es que el resultado es asombroso, el cual no engañará a los más exigentes pero sí hará un trabajo destacable que será aprobado por aquellos que buscan este tipo de material (que no son pocos).Este usuario se está volviendo la sensación de Reddit gracias a sus creaciones basadas en Face2Face , muchas de ellas ya eliminadas. El trabajo se basa en un algoritmo de intercambio de rostros que él mismo diseñó usando plataformas Open Source como TensorFlow Keras . Una vez teniendo esto, sólo se elige un vídeo, porno en este caso, clips de YouTube y fotos de Google Images.Basta darse un paseo por el foro de Reddit dedicado a lospara ver multitud de peticiones para crear vídeos porno con tal o cual persona. Amigas, jefas, compañeras de clase, ex-novias. La lista es tan larga como vergonzosa.Como vemos a continuación,. Lo importante aquí es ver la expresión del rostro que coincide con lo que sucede, que es lo que ha impresionado a todos ya que no se trata de un simple montaje.La plataforma se basa en Machine Learning y sólo necesita suficiente material de la persona en cuestión para crear el vídeo falso. El algoritmo se encarga de capturar las expresiones del rostro de la actriz porno y buscar algo similar de la celebridad, creando así una falsificación que ahora mismo está poniendo de cabeza a los departamentos legales de varias compañías que representan a estas actrices.Lo preocupante de esto es que no sólo funciona con celebridades, sino que cualquier persona con conocimientos básicos y una GPU decente podría crear clips sexuales de gente que encontró en Facebook o Instagram, de cualquier Youtuber o amigo(a), vamos, incluso puede convertirse en método de venganza o revenge porn. Las posibilidades están ahí y apenas estamos empezando a ver parte del potencial de la inteligencia artificial.El fenómeno se ha extendido de forma preocupante en ciertas redes en internet, y eso ha hecho que comiencen los primeros movimientos para atajar el problema Pornhub ha vetado su uso , y Twitter ha seguido esa misma política y suspenderá las cuentas que publiquen estos vídeos.El fenómeno se ha ido extendiendo de forma peligrosa, y de hecho aparecieron variantes que permitían generar estos vídeos con amigos, conocidos o compañeros de trabajo o estudios. En foros como Discord algunos usuarios daban información de cómo hacerlo, lo que provocó que la empresa cerrara esas salas de chat.Lo mismo acabó haciendo Gfycat , que se convirtió en un involuntario repositorio de vídeos porno manipulados. Sus responsables decidieron eliminar este tipo de contenidos, y uno de sus portavoces explicaba cómo estaban moderando esos vídeos por "considerarlos cuestionables".La medida se ha extendido ahora a Pornhub, un sitio online de contenidos pornográficos que recibe 75 millones de usuarios únicos al día y que también ha atajado este fenómeno., explicaba uno de sus portavoces en una entrevista con Motherboard De hecho para Pornhub los vídeos 'deepfake' entran en la misma clasificación que el también vetado Revenge Porn en el que se distribuyen imágenes o vídeo explícitamente sexual de personas sin su consentimiento.Twitter ha anunciado en las últimas horas una medida idéntica, y sus responsables prohíben la publicación de, e indican queFuente: Xataka