sábado 13 de abril de 2024

Deepfake porno: un nuevo tipo de violencia de género

Celebridades como Emma Watson fueron víctimas de videos pornográficos creados con Inteligencia Artificial. Una modalidad en que la falta de regulación de la tecnología afecta la vida, en este caso, de mujeres.
deepfake
El de Kate Isaacs fue uno de los casos más conocidos de deepfake  porno, en el que descubrió su cara en un video sexual que no había realizado. Crédito: titulo.com.ar. 

Hasta Elon Musk lo admite. Recientemente, el nuevo dueño de Twitter compartió un meme en el que insinúa que la pornografía dominará la Inteligencia Artificial (IA), como lo hizo con cada innovación tecnológica. Pero lejos de ser algo gracioso, es una situación que implica nuevas formas de violencia de género. 

Como si fuera poco, en materia legislativa todavía queda mucho por recorrer. Las formas de violencia contra la mujer en medios digitales tienen poca legislación a lo largo del mundo. Por esta razón, los avances tecnológicos requieren de una actualización urgente.

En este sentido, en las últimas semanas fueron noticia los deepfake porno. La periodista Lauren Barton descubrió videos sexuales con las caras de las actrices Emma Watson y Scarlett Johansson en cuerpos de otras personas. 

Sin embargo, no fueron las únicas víctimas. En enero de este año, en la plataforma Twitch, el streamer Atrioc fue descubierto viendo porno generado con IA de otras mujeres streamers. 

El mayor problema radica en que estos materiales se realizan por usuarios de Internet desconocidos, sin el consentimiento de las involucradas. De este modo, las mujeres desconocen la existencia de estos videos y, por lo tanto, no pueden hacer nada para evitarlos.

¿Qué es un deepfake porno? 

La técnica del deepfake se basa en la IA para manipular cuerpos y caras en un video, logrando que parezcan los de otra persona. A veces, toma los gestos y las palabras de un individuo y los cambia al antojo de su creadore, para que digan o hagan algo que nunca realizaron. 

En 2018, el medio estadounidense Vox se hizo eco de un estudio que reveló que el 96% de los deepfakes analizados eran de contenido pornográfico de mujeres. La mayoría famosas, y los vídeos fueron confeccionados sin su consentimiento. 

La palabra deepfake es un acrónimo de “deep learning” (“aprendizaje profundo”) y “fake” (“falso”). De hecho, el término surgió en el foro Reddit en 2017, cuando un usuarie que utilizaba ese nombre empezó a subir vídeos en los que sustituía la cara de actores reales por las de otres. 

Había algunos de Nicolas Cage pero, sobre todo, se trataban de vídeos pornográficos con las caras de las actrices Gal Gadot, Emma Watson y Scarlett Johansonn; las cantantes Taylor Swift y Katy Perry; y otras personalidades públicas como Kate Middleton, Michelle Obama o Ivanka Trump.

Grupo FTP
La preocupación por los deepfakes creció por su uso en la política, al generar discursos de candidates que no ocurrieron en realidad. Crédito: Grupo FTP. 

Intentos de regulación 

En 2018, Reddit expulsó a dicho usuarie, pero el daño ya estaba hecho. Ello se debió a que esta modalidad de uso de la IA para generar violencia sexual se diseminó en el mundo. 

Después de las polémicas, las empresas de redes sociales intentan controlar el asunto. Twitch hizo lo suyo luego de que el streamer Brandon “Atrioc” Ewing retransmitiera imágenes explícitas de mujeres desnudas con los rostros de populares streamers mujeres.

La plataforma anunció una actualización de sus políticas para luchar contra la pornografía deepfake. En este sentido, impuso sanciones como la suspensión indefinida de la cuenta de usuaries que “promuevan, creen o compartan” contenido relacionado con este tipo de imágenes.

Lo mismo sucedió en Meta. En las páginas web de la compañía, se viralizaron anuncios que promocionaban la app FaceMega. Esta pertenecía a Ufoto Limited, propiedad de una empresa matriz china, Wondershare. Las publicidades mostraban los rostros de Emma Watson y Scarlet Johansson en videos sexuales junto a la leyenda: “Reemplaza la cara con cualquiera”. 

Luego del repudio, Meta dio de baja dichas publicidades. “Nuestras políticas prohíben el contenido para adultos, independientemente de si es generado por IA o no, y hemos restringido esta página de publicidad en nuestra plataforma”, expresó un portavoz de la empresa. 

Pero, ¿estos “castigos” solo dependen de las compañías que manejan redes sociales? ¿Quién contiene a las víctimas de violencia sexual digital? Los Estados en diferentes partes del mundo, ¿tienen legislación que contemple estos casos? 

LM Neuquen
Belén San Román era una joven policía argentina que se suicidó después de que su expareja viralizara contenido íntimo sin su consentimiento. Crédito: LMNeuquén. 

La violencia sexual digital en Argentina

En Argentina, si bien se promueve desde el Estado el uso de IA, aún no hay regulaciones que controlen los diferentes problemas que podría generar esta tecnología. De hecho, según informó argentina.gob.ar, el año pasado se realizó un seminario llamado “Regulación de las inteligencias artificiales: análisis de sus aspectos éticos, políticos y jurídicos”. En él se problematizó cómo debería legislarse esta herramienta. 

Mientras tanto, los casos de violencia sexual digital continúan, y el deepfake porno también sucede en el país. Al respecto, en 2022 se presentaron dos proyectos que aún no son ley para regular estas situaciones. 

Una de ellas es la “Ley Olimpia”. La misma propone incorporar la violencia digital como otra forma de violencia contra las mujeres en el marco de la Ley 26485. También, incorporar al Código Penal los delitos de obtención y difusión no consentida de material íntimo y/o de desnudez, de los “porn deep fake” y de la “sextorsión”.

La otra es la “Ley Belén”, que se denomina así en honor a Belén San Román, se quien se suicidó luego de que su expareja viralizara contenido íntimo sin su consentimiento. La norma establecería modificaciones en el Código Penal de la Nación para prever penas de prisión de tres meses a tres años y elevar las multas establecidas. 

Estos castigos serían para quienes “por cualquier medio, sin autorización de la víctima o mediando engaño, videograbe, audiograbe, fotografíe, filme o elabore, documentos con contenidos de desnudez, naturaleza sexual o representaciones sexuales explícitas”.

Compartir:

Nota al Pie es un joven medio alternativo y autogestivo. Precisamos tu aporte para sostener el día a día de un periodismo popular que encuentra cada día más dificultades para mantenerse independiente. Con tu suscripción mensual nos ayudás muchísimo. Podés cancelarla cuando quieras. Por mail te iremos informando de los beneficios de ser parte de Nota al Pie.
¡Muchas Gracias!

Notas Relacionadas

Seguir Leyendo

Argentina asiste a la lenta agonía del debate

El Presidente que insulta y el vocero que no dialoga. La ausencia de las normas que tácitamente acompañaron el escenario de la discusión política durante décadas, pone en tensión una de las columnas centrales de la democracia.

¡A mirar para arriba! La observación de aves en la Ciudad

Aunque estemos en plena Ciudad de Buenos Aires, es posible avistar más de 300 especies de aves. Nota al Pie dialogó con Natalia Jaoand, Coordinadora del COA Carancho, para conocer más al respecto.

Sebastián Villa, Vélez y los acusados por violencia de género en el fútbol

Por ahora, se suspende el juicio al ex delantero de Boca. La novedad en el tratamiento de esta causa se da a la vez que fueron denunciados jugadores del Fortín por el mismo motivo. ¿Comienza a condenarse la conducta machista en el popular deporte?

Ultimas Noticias

Más del autor

Nota al Pie | Noticias en contexto