Deepfakes: así de fácil puedes hacerlos
"Deepfake" es la palabra de moda y por desgracia ha venido para quedarse. Hace años integrar bien esta técnica era realmente complicado y no estaba al alcance de cualquiera. Ese es uno de los motivos por los que la cuenta fake de Tom Cruise fue tan viral cuando se creó en 2021.
A día de hoy, con el desarrollo continuo que estamos viviendo en el mundo de la IA, es accesible para casi cualquier persona. Y como pasa en tantos otros ámbitos, se ha extendido más para hacer el mal (suplantación de políticos para expandir información falsa, suplantación de famosos para falsos anuncios...) que para sacar cuatro carcajadas como con el Tom Cruise de Aliexpress.
Yo creo que esta técnica se puede usar de varias maneras sin necesidad de caer en terrenos oscuros y te voy a explicar cómo yo la hago.
Esta edición tiene muchos vídeos de ejemplo, así que te recomiendo que la abras en el navegador para que sea más cómoda de leer.
Nota: técnicamente no es un deepfake al uso, con modelos entrenados de manera específica, pero en la práctica el resultado es muy similar y, bajo mi punto de vista, pronto será de la misma calidad.
Como sabes, hasta ahora mi herramienta principal de IA generativa era Freepik (que ahora ha cambiado de nombre de vuelta a Magnific, no sé muy bien por qué).
Pero por varios motivos me he cambiado a Runway. El primero es que hicieron un downgrade del plan que estaba pagando, ofreciendo menos por el mismo precio. Y el segundo y más importante, que Runway ha añadido Seedance 2.0 (¡y GPT Image 2!) al plan Unlimited.
Eso significa que, aunque pagas más, tienes generaciones ilimitadas del mejor generador de vídeo de la actualidad. Y te aseguro que la diferencia es abismal.
Además, este generador en Runway tiene una opción que para mí cambia el juego por completo: puedes añadir vídeos e imágenes para usar como referencia en el vídeo, sin que estos tengan que ser sí o sí un primer frame como pasaba hasta ahora.
Volviendo a los deepfakes, hasta ahora la manera más sencilla de hacerlos era generar una imagen realista con el cambio de cara o persona, animar esa imagen y cambiarle la voz.
Pero en esta plataforma tenemos dos opciones diferentes.
La primera se llama Act-Two y sirve para cambiar directamente la persona que habla en un vídeo, o la estética de este. Pero no maneja especialmente bien el movimiento y destaca en vídeos estilo talking head.
En este caso sí que necesitas generar primero la imagen que quieres que se anime con los movimientos del vídeo original. Por ejemplo, usando esa técnica yo hice estos dos vídeos:
Y este otro:
Está bastante bien porque son planos quietos, pero por ejemplo en el primero me fue imposible tras varios intentos conseguir que no se inventara una taza en los movimientos finales.
Yo creo que está más pensado para grabar tus propios vídeos a cámara y sustituirte por un personaje de ficción.
Sin embargo, como ya te he dicho, Seedance es mucho más versátil y además funciona, como ya viene siendo habitual, con lenguaje natural. Esto significa que puedes explicarle todos los detalles que quieres como a una persona y los va a procesar fielmente.
Y en este caso, hay varias maneras de conseguir crear escenas realistas con una persona concreta de manera consistente. Te voy a poner varios ejemplos.
El primero es utilizando solo un vídeo como referencia y diciéndole que esa persona haga lo que tú te imagines.
Vídeo de referencia:
Resultado final haciendo parkour extremo:
Como ves, me hace de manera bastante precisa (excepto por la agilidad 😅) y sin inconsistencias, sobre todo teniendo en cuenta lo vago del vídeo de ejemplo.
El segundo ejemplo es la manera más sencilla para sustituir completamente a una persona por otra en un vídeo. Solo hay que cargar el vídeo original y una foto de la persona por la que queremos sustituirlo, y explicarle eso mismo en el prompt.
¿Adivinas cuál es el original?
Y el tercero es el más sencillo si lo que quieres es generar escenas desde cero. Simplemente añades las imágenes que quieras usar como referencia (la persona, el lugar, etc.) y explicas cada escena lo mejor posible.
Este modelo además genera un audio de muy buena calidad que va con todo lo que pasa en el vídeo, incluido el movimiento de labios (lip sync) si también quieres generar diálogos o música de fondo de cualquier tipo.
Yo me lo he pasado especialmente bien haciendo estos dos:
Estos son solo tres ejemplos, pero con las posibilidades, la versatilidad y la calidad de este modelo, las opciones son casi interminables. Y como ves, también se puede utilizar esta técnica para crear contenido que está alejado de las estafas o la difusión de información falsa.
Un error que veo constantemente en publicidad de Instagram y que puede mejorarse echándole un poco de ganas con esto son los típicos anuncios de avatares de IA.
Si tienes un negocio y la imagen que das es la de un avatar cutre que ni siquiera mueve bien los labios, es imposible que nadie confíe en lo que ofreces. Pero puedes usar tu propia imagen, grabar el vídeo en un sitio cualquiera y cambiar el fondo, la luz y la estética del vídeo generándolo con Seedance 2.0. De esta manera va a ser muchísimo más realista, va a parecer grabado por un profesional y va a mantener tu voz.
Todas estas técnicas son las que usé para el corto del que os hablé el lunes y que en cuanto pueda os compartiré por aquí.
Y tú, ¿ya has probado Seedance 2.0? Ten cuidado, porque cuando lo pruebes una vez, no vas a querer soltarlo.
Nos vemos el lunes con las noticias, un abrazo.
Amaiur.