La primera vez que oímos hablar de los deepfakes fue en un contexto
relacionado con una de las grandes motivaciones del ser humano: el sexo. El resultado resultaba entonces impresionante, sí, pero lo cierto es que la fantasía no duraba más allá de dos vistazos, pues los errores en la superposición de los rasgos faciales todavía resultaban evidentes.
Saltó a la fama en las redes sociales otro deepfake, el que fusionaba el rostro de Steve Buscemi con el cuerpo y la voz de Jennifer Lawrence. La motivación en este caso es la sátira, y el resultado es más que convincente. Escalofriantemente convincente, de hecho… aunque, un ojo entrenado puede todavía detectar efectos sospechosos en el rostro de ‘Jennifer Buscemi’ cuando mira hacia los lados, por ejemplo.
Pero es innegable que el salto dado por esta tecnología de manipulación de imágenes en poco más de un año es más que notable. Y que en el futuro seguirá mejorando, haciendo virtualmente imposible diferenciar un vídeo real de un deepfake.
Será entonces cuando esta clase de vídeos puedan sumar al sexo y la sátira la tercera gran motivación humana, la política, y convertirse, como ya dijimos en su día, en un potencial peligro para la democracia, al facilitar la difusión de bulos mucho más creíbles.
Mírale fijamente a los ojos…
Sin embargo, todavía hay un elemento, un pequeño error, de los deepfakes que permite detectarlos (aunque para ello pueda hacer falta recurrir a un software): los parpadeos.
En circunstancias normales, humano adulto tiende a parpadear una vez
cada 2-10 segundos, y cada uno de sus parpadeos se prolonga durante 1-4
décimas de segundo.
Cualquier persona que no fuerce a propósito su ritmo de parpadeo
deberá encajar dentro de esos rangos en cualquier aparición en vídeo.
Pero, y aquí está la clave, la mayoría de los vídeos fake no se ajustan al mismo: los rostros manipulados parpadean muchísimo menos.
Aquí un ejemplo:
La razón de esto es bien simple: incluso aquellas personas que viven
rodeadas de fotógrafos no suelen ver publicadas aquellas fotografías en
las que aparecen con los ojos cerrados. Y, dado que son esas fotos que pululan por Internet las que los creadores de deepfakes usan
para ‘alimentar’ las redes neuronales que generan los vídeos
manipulados, no hay modo de que el ritmo de parpadeo resultante pueda
pasar por una imagen real.
Siwei Lyu, director del Laboratorio de Visión Artificial y Aprendizaje Automático de la Universidad de Albany (EE.UU) ha recurrido
también a la IA para analizar automáticamente vídeos, detectar el
número de fotogramas en que las personas aparecen con los ojos cerrados y
dictaminar a partir de ese dato si se trata o no de un deepfake. Su tasa de detección es “de más del 95%”.
I Want To Believe
¿Estamos salvados, entonces, de la amenaza que los deepfakes representan para la reputación de las personas (famosas o no)? No. Ni por asomo.
En primer lugar, porque ninguna solución tecnológica puede prolongarse mucho en el tiempo (recordemos el caso de la IA que ha aprendido a resolver CAPTCHAs). El propio Lyu advierte que
“la tecnología mejora rápidamente, y la competencia a la hora de
generar/detectar vídeos falsos es análoga a un juego de ajedrez. De
hecho, se puede agregar un parpadeo a los vídeos deepfake incluyendo
imágenes de caras con los ojos cerrados o usando secuencias de vídeo
como entrenamiento.
Las personas que quieren confundir al público mejorarán el modo en
que crean deepfakes, y los miembros de la comunidad tecnológica
tendremos que seguir buscando formas de detectarlos”.
En segundo lugar, porque ninguna solución tecnológica bastará cuando la persona quiere creer.
Ya es fácil percibirlo hoy en día: incluso los fakes tradicionales más
groseramente obvios o más fácilmente comprobables pueden cosechar miles
de impactos siempre que cumplan con una condición fundamental: que refuercen los prejuicios del usuario.
Si, además, nos los presentan en un formato a priori tan creíble como
un vídeo deepfake, ningún software de detección de parpadeos o sistema
equivalente podrá salvarnos de la difusión masiva de información falsa.
We use cookies on our website to give you the most relevant experience by remembering your preferences and repeat visits. By clicking “Accept All”, you consent to the use of ALL the cookies. However, you may visit "Cookie Settings" to provide a controlled consent.
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. These cookies ensure basic functionalities and security features of the website, anonymously.
Cookie
Duración
Descripción
cookielawinfo-checkbox-analytics
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Analytics".
cookielawinfo-checkbox-functional
11 months
The cookie is set by GDPR cookie consent to record the user consent for the cookies in the category "Functional".
cookielawinfo-checkbox-necessary
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookies is used to store the user consent for the cookies in the category "Necessary".
cookielawinfo-checkbox-others
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Other.
cookielawinfo-checkbox-performance
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Performance".
viewed_cookie_policy
11 months
The cookie is set by the GDPR Cookie Consent plugin and is used to store whether or not user has consented to the use of cookies. It does not store any personal data.
Functional cookies help to perform certain functionalities like sharing the content of the website on social media platforms, collect feedbacks, and other third-party features.
Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.
Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics the number of visitors, bounce rate, traffic source, etc.
Advertisement cookies are used to provide visitors with relevant ads and marketing campaigns. These cookies track visitors across websites and collect information to provide customized ads.
La primera vez que oímos hablar de los deepfakes fue en un contexto relacionado con una de las grandes motivaciones del ser humano: el sexo. El resultado resultaba entonces impresionante, sí, pero lo cierto es que la fantasía no duraba más allá de dos vistazos, pues los errores en la superposición de los rasgos faciales todavía resultaban evidentes.
Saltó a la fama en las redes sociales otro deepfake, el que fusionaba el rostro de Steve Buscemi con el cuerpo y la voz de Jennifer Lawrence. La motivación en este caso es la sátira, y el resultado es más que convincente. Escalofriantemente convincente, de hecho… aunque, un ojo entrenado puede todavía detectar efectos sospechosos en el rostro de ‘Jennifer Buscemi’ cuando mira hacia los lados, por ejemplo.
Pero es innegable que el salto dado por esta tecnología de manipulación de imágenes en poco más de un año es más que notable. Y que en el futuro seguirá mejorando, haciendo virtualmente imposible diferenciar un vídeo real de un deepfake.
Será entonces cuando esta clase de vídeos puedan sumar al sexo y la sátira la tercera gran motivación humana, la política, y convertirse, como ya dijimos en su día, en un potencial peligro para la democracia, al facilitar la difusión de bulos mucho más creíbles.
Mírale fijamente a los ojos…
Sin embargo, todavía hay un elemento, un pequeño error, de los deepfakes que permite detectarlos (aunque para ello pueda hacer falta recurrir a un software): los parpadeos. En circunstancias normales, humano adulto tiende a parpadear una vez cada 2-10 segundos, y cada uno de sus parpadeos se prolonga durante 1-4 décimas de segundo.
Cualquier persona que no fuerce a propósito su ritmo de parpadeo deberá encajar dentro de esos rangos en cualquier aparición en vídeo. Pero, y aquí está la clave, la mayoría de los vídeos fake no se ajustan al mismo: los rostros manipulados parpadean muchísimo menos.
Aquí un ejemplo:
La razón de esto es bien simple: incluso aquellas personas que viven rodeadas de fotógrafos no suelen ver publicadas aquellas fotografías en las que aparecen con los ojos cerrados. Y, dado que son esas fotos que pululan por Internet las que los creadores de deepfakes usan para ‘alimentar’ las redes neuronales que generan los vídeos manipulados, no hay modo de que el ritmo de parpadeo resultante pueda pasar por una imagen real.
Siwei Lyu, director del Laboratorio de Visión Artificial y Aprendizaje Automático de la Universidad de Albany (EE.UU) ha recurrido también a la IA para analizar automáticamente vídeos, detectar el número de fotogramas en que las personas aparecen con los ojos cerrados y dictaminar a partir de ese dato si se trata o no de un deepfake. Su tasa de detección es “de más del 95%”.
I Want To Believe
¿Estamos salvados, entonces, de la amenaza que los deepfakes representan para la reputación de las personas (famosas o no)? No. Ni por asomo.
En primer lugar, porque ninguna solución tecnológica puede prolongarse mucho en el tiempo (recordemos el caso de la IA que ha aprendido a resolver CAPTCHAs). El propio Lyu advierte que
En segundo lugar, porque ninguna solución tecnológica bastará cuando la persona quiere creer. Ya es fácil percibirlo hoy en día: incluso los fakes tradicionales más groseramente obvios o más fácilmente comprobables pueden cosechar miles de impactos siempre que cumplan con una condición fundamental: que refuercen los prejuicios del usuario.
Si, además, nos los presentan en un formato a priori tan creíble como un vídeo deepfake, ningún software de detección de parpadeos o sistema equivalente podrá salvarnos de la difusión masiva de información falsa.
Vía | The Conversation
Fuente
Compartir esto: