Reportaje
No es lo que parece: cómo los deepfakes han abierto la puerta a una nueva forma de acoso
Esta forma de acoso sexual, que afecta fundamentalmente a mujeres, funciona a partir de la creación de imágenes falsas que simulan la apariencia y el sonido de otra persona, haciéndola pasar por real. Por Mar Manrique.
Las imágenes del Papa Francisco vistiendo un atuendo inspirado en la marca Balenciaga, la coreografía de la princesa Leonor en TikTok y el telenoticias presentado por una mujer coreana son algunos de los deepfakes más sonados que corren por la red. Los deepfakes, los vídeos producidos con imágenes falsas que imitan la apariencia y el sonido de una persona, son un producto de la inteligencia artificial basada en técnicas de machine learning, llamadas deep learning, y hacen tambalear la confianza en qué es real y qué no en Internet.
Aunque ahora el uso de imágenes que imitan la apariencia de personas reales es una cuestión cada vez más democratizada, el origen de los deepfakes está vinculado a las páginas de pornografía. Desde mediados de 2010 han sido usados por usuarios de Reddit, uno de los mayores foros en línea estadounidenses, para intercambiar las caras de actrices famosas con las de mujeres en escenas de vídeos de contenido sexual. Ya pasó con Gal Gadot, la protagonista de Wonder Woman, Natalie Portman o Emma Watson. Las imágenes falsas también han salpicado a mujeres vinculadas a la política, como la ex primera dama Michelle Obama; la hija de Donald Trump, Ivanka Trump; o la duquesa de Cambridge Kate Middleton.
Cuando se trata de deepfakes en la industria de los vídeos eróticos, las mujeres son las grandes afectadas. Según un estudio de Sensity, una empresa que detecta y monitorea los deepfakes en Internet, el 96% de los deepfakes en 2019 eran sexuales no consentidos. Además, el 99% de ellos estaban protagonizados por mujeres, y no solo famosas. En 2020, 107.000 usuarios de Telegram solicitaron a bots que fabricasen imágenes de desnudos de mujeres, lo que resultó en la generación de un total de 680.000 imágenes falsas en solo tres meses, tal y como reporta Xataka. Además, de acuerdo con Kat Tenbarge en NBCNews, “un creador ofreció en un servidor de Discord hacer un deepfake de cinco minutos de una chica [...] por 65 dólares”.
Este tipo de imágenes falsas que usan los rostros de cientos de mujeres sin su consentimiento ya provocan problemas sociales y ponen en duda la seguridad de la identidad en la esfera digital. Según Arwa Mahdawi en The Guardian, a inicios de 2023 el streamer de Twitch Brandon “Atrioc” Ewing admitió la compra y el visionado de deepfakes de sus colegas mujeres streamers. La confesión la dinamitó una pillada en directo: Ewing mostró accidentalmente ante sus seguidores algunas ventanas abiertas de un sitio web de alguien que hacía deepfakes de streamers.
QTCinderella, una de las mujeres streamers afectadas por el conocido como “porno del deepfake”, habló en un vídeo de Twitch que ya no se puede visionar de cómo esta cuestión había afectado a su salud mental. “Así es como te ves a ti misma desnuda en contra de tu voluntad y difundida por Internet”, afirmó en el directo, según The Guardian. “No debería formar parte de mi trabajo tener que pagar dinero para que quiten esto. No debería formar parte de mi trabajo que me acosen, que difundan fotos mías ‘desnuda”, añadió en el streaming.
Ante esto, Arwa Mahdawi cree que la solución pasa porque legisladores, empresas tecnológicas y políticos tomen cartas en el asunto e insta a que la conversación se lleve a cabo con rapidez. Mientras, ¿de qué forma se puede evitar caer en un deepfake o verse involucrado en él?
Tal y como recoge un estudio de iProov, líder mundial en autenticación biométrica facial en línea, el 71% de los encuestados a nivel global en su informe no sabe qué es un deepfake y el 43% admite que no podría detectar uno. Algunos expertos comparten algunas claves que pueden ayudar a detectar los deepfakes como fijarse en el número de veces que una persona parpadea en un vídeo (mucho menos que una persona real) o cuánto dista la estética de la cara y el cuerpo de las personas. Además, los especialistas hacen especial hincapié en buscar la fuente de la grabación, es decir, la primera persona que compartió el deepfake y comparar el sonido de la grabación (si no está presente o no coincide con la imagen).