Logo de yasss
Risas

yasss

Los deepfakes: poca broma con el último viral de Jennifer Lawrance y Steve Buscemi

yasss.es 31/01/2019 18:14

Repelús. Cosica. Angustia vital. Un montón de emociones se originan en nuestro cuerpo cuando vemos el vídeo que se ha viralizado en los últimos días a través de las redes sociales.

Tomando unas imágenes de 2016 en las que puede verse a la actriz estadounidense Jennifer Lawrence contestar varias preguntas en la rueda de prensa de los Globos de Oro se ha podido insertar la cara del actor Steve Buscemi con una precisión asombrosa. Sabemos que el vídeo es falso, pero parece TAN REAL. ¡Están tan bien hecho!

Este vídeo se ha hecho buscando un efecto cómico, ya que Lawrence es famosa no solo por su trabajo sino por su increíble belleza física y Steve Buscemi, más o menos, por todo lo contrario. Es un excelente actor pero su peculiar fisionomía lo ha convertido en uno de los "feos" del cine. (Hasta los gatos feos se parecen a Buscemi).

Sin embargo, lejos de causarnos una gran carcajada, ver un vídeo como este nos resulta de lo más escalofriante. O sea, las expresiones faciales están tan bien encajadas que... asusta. Quizás se podría aplicar aquí la teoría del Valle Inquietante, una hipótesis que se aplica al campo de la robótica que viene a decir que cuando un robot se parece mucho mucho mucho a un humano causan una respuesta de rechazo en nosotros. Nos da mal rollito. Así que los que diseñan robots tienen que tener en cuenta de que para que sus creaciones nos generen confianza tienen que parecen un robot, para que no nos sentamos engañados.

A nadie le gusta que le engañen. Pero vivimos en el 2019, y ser engañado ya forma parte de nuestro día a día. Estamos en la era de las fakenews, las noticias falsas que se difunden para confundir a la gente o causar algún golpe de efecto en favor o en contra de alguien. Y ahora, con esta nueva tecnología, ya no nos podremos fiar ni de nuestros propios ojos. Porque ya nunca volveremos a saber si alguien dijo unas palabras muy fuertes o era la cara de alguien puesta encima de la persona anónima que dijo esas palabras tan fuertes.

Para qué sirven los deepfakes

No nos vamos a andar con rodeos y te vamos a decir la verdad tal y como es: esta tecnología se creó para hacer porno. Para poner la cara de una famosa en el cuerpo de una actriz y que la gente pudiera ver a sus ídolos dándole al triqui-triqui. Una inteligencia artificial escoge una serie de imágenes y las combina con otras generadas por ordenador utilizando unos algoritmos de aprendizaje no supervisados y crea un vídeo falso pero muy realista, que puede llevar a error.

Lo malo es que esta tecnología puede ser usada para otros fines mucho peores (si es que hay algo peor que saber que tu cara está siendo usada para hacer vídeos pornográficos, claro). Tal y como cuenta Hipertextual, nos vamos a hacer caquita cuando esta tecnología empiece a ser válida en los escenarios políticos. O sea, si la campaña de Trump ya fue fuertecita y solo usaba su imagen y su discurso, imagínate cómo se puede llegar a poner la cosa cuando los equipos de un partido quieran desacreditar a sus contrincantes con declaraciones falsas.

Caminamos hacia la desinformación, hacia el golpe de efecto. A día de hoy cualquiera puede hacer un vídeo como el de Lawrence-Buscemi con una app gratuita, así que... bueno, pues que ya estamos perdidos.