• Dólar
  • BNA $836 ~ $876
  • BLUE $990 ~ $990
  • TURISTA $1337.6 ~ $1337.6

25 C ° ST 25.18 °

Unión Radio 91.3 en vivo

Activista contra la pornografía infantil sufrió abuso sexual digital con videos deepfake: Qué son y cuál es su impacto

Su rostro apareció, de manera digital, en sitios web para adultos. Denuncia que lo armaron para silenciarla por su activismo. Además, sufrió de otros agravios.

27 Octubre de 2022 02.43

Imagina estar relajándote en las redes sociales, leyendo Twitter o viendo clips divertidos en TikTok, cuando de pronto, mientras te desplazás por tuits y noticias, ves tu cara en un video pornográfico.

Eso fue lo que le pasó a Kate Isaacs, una mujer inglesa de 30 años que, después de la conmoción inicial por verse manteniendo relaciones sexuales en una plataforma pública, se dio cuenta de algo aún más inquietante: aunque era su cara la que aparecía en el video, el cuerpo que se veía no era el suyo.

Kate se había convertido en víctima de la llamada pornografía deepfake, término que designa a los videos pornográficos realizados con fotos robadas que se transforman en clips porno mediante un software.

Kate Isaacs, víctima de deepfake. (Foto: Captura Instagram)
Kate Isaacs, víctima de deepfake. (Foto: Captura Instagram)

La mujer de 30 años, que es activista, cree que fue víctima de este abuso sexual digital debido a su campaña #NotYourPorn de 2020, que supuso la eliminación de 10 millones de videos de pornografía infantil y no consentida en varios sitios para adultos.

Lo más sorprendente es que los agresores también “doxearon” a Kate, publicando en Internet las direcciones de su trabajo y de su casa. Isaacs confesó que había recibido amenazas como que la iban a perseguir durante las noches, que la iban a violar, a grabarlo y subirlo a Internet.

Según informó Kate, para el video falso en el que parecía que estaba teniendo relaciones sexuales, utilizaron imágenes de una entrevista televisiva de Kate de su campaña contra la pornografía no consentida, y la habían etiquetado al compartirlo en Twitter.

 

Qué son y cómo se hacen los videos deepfake

 

Para lograr este tipo de clips se utiliza inteligencia artificial para manipular un video y colocar de manera digital el rostro de una persona sobre las imágenes del cuerpo de otra que está realizando actos sexuales, en este caso, una actriz porno.

Durante un tiempo fueron los famosos y políticos de alto perfil las víctimas más comunes de estos deepfake. Los videos no siempre eran pornográficos, y muchos fueron creados con el objetivo de hacer reír.

Pero con los años, y el avance de la tecnología, esto ha cambiado y, de acuerdo con la empresa de ciberseguridad Deeptrace, el 96% de todos los videos de deepfake son pornografía no consentida.

 

Los deepfake como abuso sexual digital

 

De la misma manera que la “pornovenganza” -la publicación en redes sociales de fotos íntimas de exparejas- la pornografía deepfake se considera abuso sexual digital, basado en imágenes, un término que abarca la toma, la creación y/o el intercambio de fotos íntimas sin consentimiento.

Kate compartió su experiencia en un documental de la BBC llamado “Deepfake Porn: Could You Be Next?” (Porno deepfake: ¿podrías ser el siguiente?), presentado por la periodista Jess Davies, en donde se demuestra y analiza lo fácil que es crear este tipo de contenidos.

Los videos deepfake se valen de la inteligencia artificial para tomar rostros de personas e insertarlos en cuerpos de otras. (Foto: AdobeStock)
Los videos deepfake se valen de la inteligencia artificial para tomar rostros de personas e insertarlos en cuerpos de otras. (Foto: AdobeStock)Por: metamorworks - stock.adobe.com

En el documental, Davies conversa con Gorkem y MrDeepFakes, dos de los más populares creadores de deepfakes. El primero, que realiza videos a pedido, relativiza el tema y expresa que la víctima, al no ser la real protagonista y tratarse de un video falsificado, “no sufre ningún daño”.

MrDeepFake, quien tiene un sitio web de videos falsos con 13 millones de visitas al mes y casi 250.000 miembros, coincide y afirma que “mientras no se trate de hacer pasar el video como real”, no debería importar ni tampoco debería mediar consentimiento.

Kate Isaacs, víctima de de un deepfake sexual, no está de acuerdo con esas declaraciones: “Esto es preocupante y realmente aterrador. Estamos hablando de Internet, no de la Deep Web. No sé en qué mundo vive esta gente si es capaz de crear estas cosas y pensar que no tienen ningún impacto en la reputación de alguien”, afirmó.

Como parte de su investigación para el documental, Davies también descubrió que aplicaciones fácilmente disponibles como FaceMagic -que tiene una calificación para mayores de 12 años- pueden crear deepfakes en menos de un minuto.

Para demostrarlo, en el documental Davies hizo un clip de sí misma en ocho segundos: “Puede que los resultados no parezcan muy realistas, pero alcanzan para que la víctima sienta la vergüenza y la humillación”.

 

Los deepfake como instrumento misógino

 

El hecho de haber sido víctima de un deepfake tuvo un impacto en la salud de Kate y en su capacidad para confiar en otras personas. Ella cree que quienes estaban detrás de los ataques no solamente intentaban intimidarla y humillarla, sino también silenciarla.

Hace poco, la mujer confesó que se había dado cuenta de que el tema le importaba demasiado como para dejarlo y anunció que no iba a permitir que le ganen en su lucha.

“Los deepfakes pueden utilizarse para controlar a las mujeres”, afirmó Kate. Y agregó que: “Las empresas tecnológicas -incluidas las que fabrican aplicaciones que permiten el intercambio de rostros- deben poner restricciones e implementar sistemas que sean capaces de detectar el contenido sexual”.

“Si las empresas no invierten dinero, recursos y tiempo para garantizar que sus apps no se utilicen como herramienta para crear contenido de abuso sexual, están siendo deliberadamente irresponsables. Son culpables”, finalizó Isaacs.