Alerta con las fotos que subes: los ‘deepfakes’ con IA que denuncia Laura Escanes inundan las redes sociales

Este tipo de aplicaciones, que trabajan con fotos de personas reales, han proliferado en internet en los últimos meses

La ley española tiene un vacío legal para este tipo de casos

Imágenes de mujeres creadas con inteligencia artificial que pueden verse en las redes sociales.   | // L. O.

Imágenes de mujeres creadas con inteligencia artificial que pueden verse en las redes sociales. | // L. O. / David López Frías

David López Frías

Lo ha advertido la influencer Laura Escanes esta misma semana en Twitter: “Me ha llegado un link donde hay fotos mías desnuda editadas y creadas por IA (inteligencia artificial). Aparte de sentirme totalmente utilizada y expuesta, hay algo que hace que me hierva la sangre. El cuerpo de una mujer no se utiliza. Ni para el placer, ni para abusar ni para manipular. Me repugna la persona que las haya creado, pero también los que están ahí y les parece divertido y callan”.

Lo que condena Escanes es la proliferación de unas nuevas aplicaciones que utilizan la IA para elaborar imágenes de desnudos y escenas eróticas con la cara de cualquier persona, que han inundado las redes sociales. La explosión de la IA tuvo lugar a finales de 2022, con el lanzamiento de ChatGPT. Una vez abierta la veda, son muchas las empresas que se han dedicado a explotar el nicho. Y, en internet, el nicho que más dinero genera es el del sexo.

Estas tecnologías generan imágenes eróticas realistas (que no reales). Apps, cuyos nombres omitiremos, se han colado en las stories de todos los sistemas operativos. Y aparecen como publicidad en las principales redes sociales. Algunas ya han sido retiradas. Pero, como una hidra, renacen con nuevos nombres y apariencias. Y las más extremas se publicitan con unas siglas que les confieren distinción sobre las demás: NSFW.

NSFW es el acrónimo de Non suitable for work (inapropiado para el trabajo). En realidad es un eufemismo para advertir de que se trata de un programa que genera material sensible, por eso lo de que no conviene tenerlo abierto en situaciones como el puesto laboral. En este caso, crea contenidos eróticos y sexuales. Mediante las órdenes pertinentes, el usuario puede inventarse a una persona y conseguir fotos sin ropa de alguien que no existe. ¿O sí?

Porque el problema viene cuando, como sucede con algunas de estas aplicaciones, se permiten subir imágenes reales. Estas aplicaciones admiten introducir fotos de caras ya existentes, como el caso que ha denunciado Laura Escanes. Porque no es necesario ser un personaje público. Basta con que alguien consiga una foto de su cara y la introduzca. Aunque el cuerpo no sea real, estos programas puede generar fakes sexuales con la cara de otra persona sin que esta se entere. Este tipo de aplicaciones, que suelen ser de pago y cuya cuota oscila entre los 40 y los 70 euros al año, no piden permisos de ninguna clase. El usuario malintencionado puede robar una foto de la cara de una persona en cualquier red social y, con ella, construir una imagen pornográfica con ese rostro, sin solicitar ningún tipo de consentimiento. No son, no obstante, imágenes reales. Pero, ¿podrían estar incurriendo en algún tipo de delito?

A este tipo de contenidos se les llama deepfakes, que procede de fake (falso) y deep [learning] ([aprendizaje] profundo), que es el conjunto de algoritmos de aprendizaje automático que utilizan las inteligencias artificiales. Desde la irrupción de las inteligencias artificiales en internet, se han visto algunos deepfake ya icónicos, como la foto del papa Francisco vestido como un rapero de Philadelphia.

Aquello sucedió en marzo. Dos meses antes ya había estallado el primer gran escándalo relacionado con este tipo de material. Un conocido streamer norteamericano llamado Brandon Ewing y conocido como Atrioc fue sorprendido en uno de sus directos con una de estas páginas que generan deepfakes sexuales en una de sus pestañas abiertas. Allí se podía apreciar que estaba creando este tipo de material con fotografías de dos streamers conocidas como Maya y Pokimane.

El hallazgo hizo explotar el caso porque, además de las dos afectadas, otras streamers decidieron ponerse a investigar y encontraron material con sus caras. No solamente en la página en cuestión, sino en grandes portales de pornografía. Aunque ellas no habían hecho absolutamente nada, ya había vídeos sexuales suyos en las principales webs porno.

Aquella página, que se llamaba Bavfakes, acabó siendo cerrada. Principalmente por el empeño de QTCinderella, otra streamer norteamericana que se vio involucrada al ver que existía contenido explícito sobre ella en la web. Pero, lejos de desaparecer de la web, cada día surgen nuevas aplicaciones de este tipo. Y las principales redes sociales como Instagram o TikTok no están filtrando este tipo de anuncios y los muestran a poco que se azuce al algoritmo. Y Google ofrece casi 120 millones de resultados en la búsqueda con las palabras Deepfake porn .

Es decir, ya se ha llegado al momento en el que no es necesario que alguien haya creado material erótico en su intimidad y se haya filtrado para que vaya circulando material sexual suyo. ¿Es esto sancionable? El Periódico de España –que pertenece a Prensa Ibérica, igual que LA OPINIÓN– ha hablado con Borja Adsuara, abogado experto en Derecho Digital, que recuerda que lleva tiempo advirtiendo de esta situación, hasta el punto de haber escrito una miniguía sobre estos términos “con la idea de ser lo más didáctico posible”. Porque cada vez se abren más dudas legales con el avance de estas tecnologías.

“Aquí la cuestión es que estamos hablando de imágenes realistas, pero no reales. La ley hace esa diferenciación. Las primeras podrían pasar por reales porque están creadas por las IA. Las segundas sí que son fotos o vídeos que se tomaron en algún momento. Y curiosamente, la ley sí sanciona las imágenes realistas de índole sexual con menores. No hace falta que hayan sucedido. Con que se generen, ya serían delito”, asegura.

Pero, en el caso de los mayores, “no está contemplado. Y la solución sería hacer un corta y pega de la definición de pseudopornografía infantil y aplicarla también a los adultos. Pero no se ha hecho de momento. Y todo esto que están generando las IA es algo que se tendrá que legislar. Porque hasta ahora, las cosas eran distintas y han ido cambiando”.

El caso Hormigos

Antes, la difusión de imágenes sexuales reales no estaba sancionada si la persona había dado el consentimiento para captarlas. “Pero eso cambió en 2015”, cuenta Adsuara. Fue tras el caso de Olvido Hormigos, la exconcejala socialista de Los Yébenes (Toledo), que sufrió la filtración de un vídeo íntimo.

“A partir de ahí, la ley cambió y ya no se podían difundir sin el consentimiento de la persona. Fue el caso más conocido, pero hubo y hay muchos. Es la denominada pornovenganza: una persona consiente filmarse o fotografiarse en momentos íntimos con su pareja. Luego rompen y el ex o la ex, para vengarse, difunde las imágenes. Tras el cambio de la ley, no se puede difundir si la persona grabada no lo permite”.

Cita Adsuara también “el caso de la trabajadora de Iveco que se acabó quitando la vida porque compartieron un vídeo sexual suyo entre los compañeros. No se suicidó por la difusión del vídeo, sino por la humillación a la que fue sometida después”. E, incluso, hay otros casos en los que se atribuyen a una persona imágenes que no son suyas, “como un soldado que compartió la foto de una mujer en la ducha, que se parecía a una compañera. Ni siquiera era ella, pero sirvió para que esa persona, que no sabía nada ni era la protagonista de la foto, fuese vejada”.

Delito

Si una persona se encuentra con la situación de que han difundido material sexual falso con su rostro (fotos o vídeos), podría perseguirse con el artículo 173.1 del Código Penal: “El que infligiera a otra persona un trato degradante, menoscabando gravemente su integridad moral, será castigado con la pena de prisión de seis meses a dos años”. Insiste el abogado en que la ley debe servir “no solo para castigar, sino para disuadir. Las normas tienen una dimensión axiológica (valores), que, en otras palabras, es como cuando se dice a un niño “eso no se hace”. Y ese mensaje no calará hasta que vaya alguien a la cárcel por crear con inteligencia artificial y difundir imágenes sexuales falsas de otra persona sin su consentimiento. Será lo único que consiga disuadir al resto”.

Suscríbete para seguir leyendo