Hace semanas, la cantante Rosalía denunciaba una violación de su intimidad y su imagen a través de una fotografía creada con inteligencia artificial que el cantante JC Reyes se había encargado de difundir en redes con el objetivo de ganar tracción y seguidores (la bromita abusiva hacia la artista le ha salido cara).
“El cuerpo de una mujer no es propiedad pública, no es una mercancía para tu estrategia de marketing”, dijo la cantante. Tenía razones de sobra para enfurecerse. La foto cruzaba todas las líneas rojas y abría una peligrosa senda que ya empieza a ser tendencia en redes: el deepfake.
El futuro ya está aquí, y no precisamente para alegrarnos el día. Esta tecnología, desconocida hasta hace pocos años, va entrando en nuestras vidas con la forma de algoritmos e inteligencias artificiales que pueden hacer tanto bien como mal. Hemos cruzado la frontera que va del tuit y del meme, del fotomontaje tosco y random, a un batallón de imágenes y videos que la inteligencia artificial puede falsear a placer para construir realidades alternativas, hechos que no han ocurrido, y, claro, para denigrar la imagen de las mujeres.
“Los deepfakes pornográficos son una manera de denigrar a las mujeres a través de su cuerpo y perpetuar el patriarcado. Si generamos desinformación sobre un político hombre, manipulamos su discurso; en cambio, si queremos perjudicar a una mujer política lo hacemos a través de su cuerpo”, explica la abogada Laia Serra en un artículo de La Vanguardia escrito por Susana Pérez Soler.
El panorama es desolador cuando miramos los primeros efectos de esta perversión de la inteligencia artifical: un truco tecnológico refinado se transforma progresivamente en chantaje, porno de venganza elevado a la categoría de virguería visual. Ahí están los deepfakes de actrices famosas en videos porno (tendencia en distintos foros de Reddit y portales Youporn o Youjizz) y una lluvia creciente de noticias falsas que manipulan fotografías hasta que resultan casi indistinguibles de las reales, como la de Donald Trump siendo detenido o el plumas enorme, propio del jefe de una banda de raperos religiosos, que lució el Papa.
El caso de Rosalía solo es uno de muchos deepfakes que corren por las redes y que dejan a sus víctimas indefensas. Es bien conocido el momento en que la streamer QT Cinderella rompió en llanto en directo cuando pudo ver con sus propios ojos un video pornográfico que alguien había falseado con su cara.
Señala la periodista Susana Pérez Soler en su artículo de La Vanguardia el pavoroso panorama que se nos viene encima con la refinación de algoritmos, y la disolución –conveniente, siniestra– entre imágenes reales de personas y sus doplegängers digitales falsos creados con IAs.
“En 2019, Deeptrace Labs, una empresa dedicada a la investigación de la desinformación digital, descubrió que más del 90% de las imágenes y vídeos manipulados que circulan en la deepweb –es decir, la parte oculta de internet, aquella que no ha sido indexada por los motores de búsqueda– son pornografía falsa no consentida”.
En el mismo artículo, la periodista incide en la raíz del problema: el deepfake es difícil de combatir, de la misma forma que el daño reputacional a la víctima y la virulenta capacidad de difusión que tienen este tipo de videos.
Aún no existe una legislación específica que ponga coto y regule el uso de la inteligencia artificial (en Europa ya están trabajando en su propia regulación). La experta en IA Patricia Ventura responde de forma taxativa: “A raíz de la proliferación de las aplicaciones de inteligencia artificial generativa, los desnudos falsos de cualquier mujer, sea o no famosa, son cada vez más fáciles de crear y difundir”.
Combatir un posible deepfake con nuestra cara parece relativamente difícil, aunque hay algunas medidas que podemos tomar si hemos sido víctimas de este tipo de violación de nuestra imagen y nuestra dignidad.
Una primera vía implica ponernos en contacto con la AEPD a través de uno de sus canales para denunciar administrativamente esta intrusión en nuestra imagen. Esta primera vía abre la posibilidad de que la Agencia Estatal de Protección de Datos pueda iniciar sus mecanismos de protección y retirar el video. No importa si es real o un falseamiento a través de este tipo de tecnología, una cara es un bien jurídico que se puede proteger.
La AEPD solo tiene agencia para actuar en el caso de videos que se difundan a través de las redes sociales. Su ámbito de actuación no abarca canales de difusión alternativos como WhatsApp o Telegram, lo que es una mala noticia para la protección de las mujeres que sufren de este tipo de violaciones en la intimidad y el honor.
La otra opción con la que contamos es buscar un abogado y ampararnos en el código civil y los artículos que se refieren al derecho al honor, a la intimidad o a la propia imagen, pues en este caso, al verse nuestra reputación dañada a través de una imagen que falsea nuestro cuerpo y nuestra cara, debemos actuar con celeridad para proteger nuestra reputación.