Los gobiernos, especialmente en EE.UU., intentan controlar Silicon Valley. De hecho, las grandes tecnológicas a menudo se niegan a someterse a los intereses nacionales, privilegiando sus propios negocios. Véase la venta ilegal de datos (Facebook) o las artimañas con China (Google). Los medios tradicionales, por su parte, habrían utilizado el argumento de las fake news
para salvaguardar su papel de garantes de la información verdadera. Un
rol puesto en crisis por el advenimiento de internet y plataformas más
horizontales.
Dicho esto, el fenómeno de las noticias falsas existe. Es grave y no debe ser subestimado. También por este motivo, algunos prevén
que de aquí a cinco años las principales redes sociales estarán hechas
solo de vídeos. De esta manera, los contenidos serán más difíciles de
manipular. Bien, pero no muy bien. Porque la herramienta para sortear
ese obstáculo ya existe. Son precisamente los llamados deepfake, vídeos manipulados a través de la inteligencia artificial. Un salto de calidad y peligrosidad en el ‘arte de la desinformación’.
¿Qué son los vídeos deepfake?
Existen varias técnicas utilizadas por los creadores de vídeos
falsos. Van desde la simple sustitución de una cara por otra hasta la
posibilidad de hacer que una persona diga o haga algo en un vídeo que nunca sucedió en la realidad. Por ejemplo, transfiriendo movimientos faciales y corporales de un sujeto A a uno B.
El término deepfake comenzó a extenderse en el otoño de 2017. Entonces, un usuario de ‘Reddit’ usó el seudónimo “deepfakes” para publicar vídeos porno falsos de personas famosas.
El rostro de una actriz o un actor porno era reemplazado por el de una
estrella de Hollywood. La técnica utilizada se denomina generative adversarial networks o GAN. El nombre deepfake pronto comenzó a definir todos los vídeos hechos de esta manera.
Deep se refiere a deep learning, uno de los procedimientos de aprendizaje de las inteligencias artificiales. Mientras que fake simplemente significa “falso”. A los vídeos deepfake se dedicó hasta un canal en ‘Reddit’, donde cualquiera podía publicar sus ‘creaciones’. En febrero de 2018, la plataforma decidió cerrarlo, tras las numerosas protestas recibidas.
Hace más de un año, un artículo del diario ‘The Economist’
trató el fenómeno cuando aún no era muy popular. En el artículo se
explicaba cómo un simple código podía modificar el audio o las imágenes
de un vídeo y hacer que las personas dijeran o hicieran cosas que nunca
sucedieron en la realidad. Al principio, eran técnicas accesibles solo
para unos pocos expertos. Con la mejora de la tecnología, ahora hay programas que lo ponen al alcance de todos.
Algunos ejemplos de vídeos deepfake
Los peligros de los vídeos falsos son directamente proporcionales a
la complejidad de su realización. Si se necesitan unos minutos para
escribir una noticia falsa, hace falta mucho más tiempo para montar un
vídeo de buena calidad. Pero el impacto potencial es infinitamente
mayor. En la sociedad de la imagen en la que vivimos, el poder de un vídeo o una foto es mucho mayor que el de un texto escrito.
En la India, después de la violación de una niña de ocho años, el
Partido Popular Indio se manifestó en defensa de los acusados. La
periodista Rana Ayyub
en televisión dijo que India estaba del lado de los violadores. Tras
sus declaraciones, en las redes sociales comenzaron a circular falsos
tuits de ella en los que decía que “odiaba a la India y a los indios”.
También apareció un vídeo porno donde su rostro reemplazaba al de la protagonista original. La periodista, traumatizada por lo ocurrido, dejó de hablar sobre estos temas.
Otro ejemplo de vídeo deepfake es el publicado por el
portavoz de la Casa Blanca en Twitter para mostrar el choque entre
Donald Trump y el periodista de CNN Jim Acosta. La Administración
estadounidense acusó a Acosta de violencia contra la mujer encargada de
retirarle el micrófono. El evento tuvo lugar el pasado 8 de noviembre,
durante una rueda de prensa.
Storyful, una organización que se ocupa de la verificación de noticias en línea, analizó el vídeo. Su análisis encontró que se habían agregado algunos fragmentos al vídeo original
en el momento en el que Acosta pone su mano en el brazo de la empleada
de la Casa Blanca. De esta manera, se obtuvo el efecto de enfatizar el
acto y hacerlo aparecer violento.
Cómo defenderse de las falsificaciones
El diario ‘The Wall Street Journal’ ha activado un grupo de trabajo para examinar los vídeos deepfake e instruir a los periodistas para que los reconozcan. Lo primero que se debe hacer es bastante obvio: verificar la fuente.
¿Quién lo grabó? ¿Quién lo publicó? ¿Y dónde se compartió por primera
vez? Estas son algunas de las preguntas que se deben hacer antes de
creer en la veracidad de un vídeo sospechoso. También se puede recurrir a
programas de edición para ralentizar la grabación y descubrir
eventuales manipulaciones.
Sin embargo, parece complicado detener por completo esta carrera a la falsificación.
El pasado 8 de noviembre, casualmente el mismo día de la pelea en la
Casa Blanca, la agencia de noticias china Xinhua presentó al primer
locutor de noticias completamente ‘falso’. Es una versión digital
de un conocido presentador, Qiu Hao, del cual se copiaron los
movimientos faciales, la voz y los gestos. Puede hablar mandarín o
inglés y leer cualquier noticia. No se equivoca, pero tampoco piensa en
lo que dice.
La hegemonía universal de la Iglesia católica comenzó a entrar en
crisis cuando perdió el control absoluto sobre la escritura. Johannes
Gutenberg inventó la imprenta en 1455 y eliminó con ello el monopolio
del conocimiento de los monjes. En 1517, Martín Lutero envió la carta al
arzobispo de Magonza con la que inauguró la Reforma. Los dos hechos
están en estrecha correlación. El conocimiento significa libertad. Hoy en día, ya no es suficiente saber leer
y escribir (o mirar), hay que saber interpretar y entender. Y la lucha
contra el analfabetismo funcional aún está lejos de ser ganada.
We use cookies on our website to give you the most relevant experience by remembering your preferences and repeat visits. By clicking “Accept All”, you consent to the use of ALL the cookies. However, you may visit "Cookie Settings" to provide a controlled consent.
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. These cookies ensure basic functionalities and security features of the website, anonymously.
Cookie
Duración
Descripción
cookielawinfo-checkbox-analytics
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Analytics".
cookielawinfo-checkbox-functional
11 months
The cookie is set by GDPR cookie consent to record the user consent for the cookies in the category "Functional".
cookielawinfo-checkbox-necessary
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookies is used to store the user consent for the cookies in the category "Necessary".
cookielawinfo-checkbox-others
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Other.
cookielawinfo-checkbox-performance
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Performance".
viewed_cookie_policy
11 months
The cookie is set by the GDPR Cookie Consent plugin and is used to store whether or not user has consented to the use of cookies. It does not store any personal data.
Functional cookies help to perform certain functionalities like sharing the content of the website on social media platforms, collect feedbacks, and other third-party features.
Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.
Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics the number of visitors, bounce rate, traffic source, etc.
Advertisement cookies are used to provide visitors with relevant ads and marketing campaigns. These cookies track visitors across websites and collect information to provide customized ads.
Los gobiernos, especialmente en EE.UU., intentan controlar Silicon Valley. De hecho, las grandes tecnológicas a menudo se niegan a someterse a los intereses nacionales, privilegiando sus propios negocios. Véase la venta ilegal de datos (Facebook) o las artimañas con China (Google). Los medios tradicionales, por su parte, habrían utilizado el argumento de las fake news para salvaguardar su papel de garantes de la información verdadera. Un rol puesto en crisis por el advenimiento de internet y plataformas más horizontales.
Dicho esto, el fenómeno de las noticias falsas existe. Es grave y no debe ser subestimado. También por este motivo, algunos prevén que de aquí a cinco años las principales redes sociales estarán hechas solo de vídeos. De esta manera, los contenidos serán más difíciles de manipular. Bien, pero no muy bien. Porque la herramienta para sortear ese obstáculo ya existe. Son precisamente los llamados deepfake, vídeos manipulados a través de la inteligencia artificial. Un salto de calidad y peligrosidad en el ‘arte de la desinformación’.
¿Qué son los vídeos deepfake?
Existen varias técnicas utilizadas por los creadores de vídeos falsos. Van desde la simple sustitución de una cara por otra hasta la posibilidad de hacer que una persona diga o haga algo en un vídeo que nunca sucedió en la realidad. Por ejemplo, transfiriendo movimientos faciales y corporales de un sujeto A a uno B.
El término deepfake comenzó a extenderse en el otoño de 2017. Entonces, un usuario de ‘Reddit’ usó el seudónimo “deepfakes” para publicar vídeos porno falsos de personas famosas. El rostro de una actriz o un actor porno era reemplazado por el de una estrella de Hollywood. La técnica utilizada se denomina generative adversarial networks o GAN. El nombre deepfake pronto comenzó a definir todos los vídeos hechos de esta manera.
Deep se refiere a deep learning, uno de los procedimientos de aprendizaje de las inteligencias artificiales. Mientras que fake simplemente significa “falso”. A los vídeos deepfake se dedicó hasta un canal en ‘Reddit’, donde cualquiera podía publicar sus ‘creaciones’. En febrero de 2018, la plataforma decidió cerrarlo, tras las numerosas protestas recibidas.
Hace más de un año, un artículo del diario ‘The Economist’ trató el fenómeno cuando aún no era muy popular. En el artículo se explicaba cómo un simple código podía modificar el audio o las imágenes de un vídeo y hacer que las personas dijeran o hicieran cosas que nunca sucedieron en la realidad. Al principio, eran técnicas accesibles solo para unos pocos expertos. Con la mejora de la tecnología, ahora hay programas que lo ponen al alcance de todos.
Algunos ejemplos de vídeos deepfake
Los peligros de los vídeos falsos son directamente proporcionales a la complejidad de su realización. Si se necesitan unos minutos para escribir una noticia falsa, hace falta mucho más tiempo para montar un vídeo de buena calidad. Pero el impacto potencial es infinitamente mayor. En la sociedad de la imagen en la que vivimos, el poder de un vídeo o una foto es mucho mayor que el de un texto escrito.
En la India, después de la violación de una niña de ocho años, el Partido Popular Indio se manifestó en defensa de los acusados. La periodista Rana Ayyub en televisión dijo que India estaba del lado de los violadores. Tras sus declaraciones, en las redes sociales comenzaron a circular falsos tuits de ella en los que decía que “odiaba a la India y a los indios”. También apareció un vídeo porno donde su rostro reemplazaba al de la protagonista original. La periodista, traumatizada por lo ocurrido, dejó de hablar sobre estos temas.
Otro ejemplo de vídeo deepfake es el publicado por el portavoz de la Casa Blanca en Twitter para mostrar el choque entre Donald Trump y el periodista de CNN Jim Acosta. La Administración estadounidense acusó a Acosta de violencia contra la mujer encargada de retirarle el micrófono. El evento tuvo lugar el pasado 8 de noviembre, durante una rueda de prensa.
Storyful, una organización que se ocupa de la verificación de noticias en línea, analizó el vídeo. Su análisis encontró que se habían agregado algunos fragmentos al vídeo original en el momento en el que Acosta pone su mano en el brazo de la empleada de la Casa Blanca. De esta manera, se obtuvo el efecto de enfatizar el acto y hacerlo aparecer violento.
Cómo defenderse de las falsificaciones
El diario ‘The Wall Street Journal’ ha activado un grupo de trabajo para examinar los vídeos deepfake e instruir a los periodistas para que los reconozcan. Lo primero que se debe hacer es bastante obvio: verificar la fuente. ¿Quién lo grabó? ¿Quién lo publicó? ¿Y dónde se compartió por primera vez? Estas son algunas de las preguntas que se deben hacer antes de creer en la veracidad de un vídeo sospechoso. También se puede recurrir a programas de edición para ralentizar la grabación y descubrir eventuales manipulaciones.
Sin embargo, parece complicado detener por completo esta carrera a la falsificación. El pasado 8 de noviembre, casualmente el mismo día de la pelea en la Casa Blanca, la agencia de noticias china Xinhua presentó al primer locutor de noticias completamente ‘falso’. Es una versión digital de un conocido presentador, Qiu Hao, del cual se copiaron los movimientos faciales, la voz y los gestos. Puede hablar mandarín o inglés y leer cualquier noticia. No se equivoca, pero tampoco piensa en lo que dice.
La hegemonía universal de la Iglesia católica comenzó a entrar en crisis cuando perdió el control absoluto sobre la escritura. Johannes Gutenberg inventó la imprenta en 1455 y eliminó con ello el monopolio del conocimiento de los monjes. En 1517, Martín Lutero envió la carta al arzobispo de Magonza con la que inauguró la Reforma. Los dos hechos están en estrecha correlación. El conocimiento significa libertad. Hoy en día, ya no es suficiente saber leer y escribir (o mirar), hay que saber interpretar y entender. Y la lucha contra el analfabetismo funcional aún está lejos de ser ganada.
Imágenes | iStock
Fuente
Compartir esto: