El fenómeno de la Inteligencia Artificial es un arma de doble filo ya que que puede ser una fuente infinita de conocimiento, así como también una vía para hacer daño a otras personas. Este último caso, es el debate que se ha encendido esta semana, a raíz de las denuncias de las 11 menores que fueron víctimas de desnudos falsos credos por la Inteligencia Artificial en Almendralejo.
A raíz de esta realidad de la que cientos de personas mujeres están siendo víctimas, también conocido como 'deepfake', varias personas se han preguntado sobre el trasfondo delictivo que existe en nuestro país acerca de la creación y la manipulación de imágenes ajenas de personas con fines pornográficos y lo cierto es que se ha visibilizado que en España existe un vacío legal sobre la materia.
El problema que existe y que otorga impunidad a esta peligrosa situación, es que todavía no se encuentra tipificado en el Código Penal debido a que España todavía no posee una regulación sobre la pornografía creada con Inteligencia Artificial, así como tampoco existe un caso que haya llegado a un Tribunal Supremo ni jurisprudencia de ello. En este marco, lo que sí es posible, es que a las personas que creen estas imágenes se les puede acusar de pornografía infantil, delito contra la integridad moral, de coacciones y se les puede imponer una multa por la ley de protección de datos.
El fenómeno conocido como 'deepfake, que se define como "el vídeo, una imagen o un audio que imita la apariencia o el audio de una persona", ha salpicado a varias famosas tales como Rosalía, Laura Escanes y Marina Riverss en los últimos meses. Ha sido en el programa 'Tardear' en donde Riverss habló sobre cómo constantemente le llegan mensajes avisándole de que su cara se está utilizando para vídeos y fotos pornográficas que se difunden por grupos de Telegram. Incluso, la tiktoker ha revelado que ha denunciado este hecho a la Policía: "Ellos te dicen que 'Usuario35' quién es. Hay grupos de Telegram con 10.000 personas viendo mis imágenes falsas. Es porque no obligas a nadie a poner su DNI para crear una red social, y es lo que estamos demandando gente que sufrimos este tipo de acoso", sentenció.
En agosto, Laura Escanes, cayó en la misma trampa. La influencer denunció unas imágenes de desnudos falsos creados por la IA que se comenzaron difundirse en redes y a través de estas se pronunció defendiendo el cuerpo de la mujer.
"Me ha llegado un link donde hay fotos mías desnuda editadas y creadas por IA. A parte de sentirme totalmente utilizada y expuesta, hay algo que hace que me hierva la sangre. El cuerpo de una mujer no se utiliza. Ni para el placer, ni para abusar ni para manipular. Me repugna la persona que las haya creado, pero también los que están ahí y les parece divertido y callan", respondió tajantemente la catalana.
Rosalía fue una de las primeras víctimas de los falsos desnudos de la IA en el mes de mayo, cuando un cantante comenzó a difundir públicamente una imagen falsa de la 'Motomami' desnuda y claramente manipulada. A raíz del hecho la joven salió inmediatamente a denunciarlo alegando que "el cuerpo de la mujer es sagrado".
"El cuerpo d una mujer n es propiedad pública, no es una mercancía xa tu estrategia d marketing. Esas fotos estaban editadas y creaste una falsa narrativa alrededor cuando ni t conozco. Existe algo llamado consentimiento y todos a los q os pareció gracioso o plausible espero de corazón q un día aprendáis q venís d una mujer, q las mujeres somos sagradas y que se nos ha de respetar bye", sentenció tajantemente la autora de 'Saoko'.