Deepfake

El uso de la IA para desnudar a personas aumenta en verano

El uso de la IA para desnudar a personas aumenta en verano | Pedro Lastra / Unsplash
Levanta la Cabeza
   | 03/07/2024

Las fotos en bikini o bañador de vacaciones facilitan a la tecnología la creación de estas imágenes falsas. Por María Soler.

Las vacaciones han llegado y con ellas las redes sociales se inundan de fotos en playas y piscinas. Sin embargo, en esta época del año es especialmente importante ser conscientes de los peligros que rodean a este tipo de publicaciones, como el uso de la IA para desnudar a personas.

La Inteligencia Artificial es una herramienta muy útil para multitud de campos: optimiza procesos, presenta soluciones innovadoras… Sin embargo, también supone un horizonte lleno de posibilidades para ciberdelincuentes, como ocurre con el deepfake, que se refiere a la práctica que crea imágenes, vídeos y audios falsos a través de deep learning(algoritmos que intentan simular nuestra actividad cerebral a partir de multitud de datos) e IA generativa y que superponen rostros generando una apariencia casi idéntica a la de una persona real. En los últimos meses ha habido multitud de casos relacionados con suplantación de identidad de famosos o políticos gracias al deepfake. Ahora bien, con la llegada del verano se produce un aumento de un caso específico: el uso de la IA para desnudar a las personas.

“Ahora en verano esto de la difusión de contenido sexual sin que la persona haya dado el consentimiento es más fácil porque todo el mundo sube fotos en bañador y para una IA quitar un bikini es mucho más fácil que quitar un jersey de cuello vuelto”, explica Sara García Antúnez, fundadora de Stop Haters y abogada penalista, en una entrevista para Levanta la cabeza.

Existen diversas aplicaciones dedicadas a esta práctica. Se trata de un delito de sexting tipificado en el artículo 197 del Código Penal, que protege la intimidad de las personas y castiga la obtención y difusión de contenido sin autorización que vulnere dicha intimidad.

Por desgracia, esto ya es una realidad que afecta a menores de edad. El año pasado un grupo de madres del municipio de Almendralejo, en Badajoz, denunciaron que habían desnudado con IA a sus hijas y habían difundido las fotografías trucadas en portales de contenido pornográfico. Por suerte, una de las menores le contó a su madre lo ocurrido y esta lo denunció ante las autoridades. Además, no dudó en contar lo ocurrido por redes sociales y en los medios para dar visibilidad de esta problemática y animó a las víctimas a denunciar lo ocurrido. La Policía Nacional abrió entonces una investigación para encontrar a los culpables.

En busca de soluciones

Solo hace falta poner en el buscador“aplicaciones para desnudar a las personas” para darse cuenta de la enorme problemática. No solo hay multitud de portales web que ofrecen esta práctica, sino que hay incluso artículos con ránkings de las mejores aplicaciones para hacerlo. Además, esta praxis también ha encontrado el vacío legal necesario en Telegram, donde hace meses se denunciaba la existencia de bots que utilizaba la IA para quitar la ropa de la gente en las fotos.

Por suerte, la situación ha hecho que grandes empresas como Google reaccionen. Recientemente la multinacional tecnológica ha actualizado su política de Google Play para prohibir las aplicaciones que publicitan desnudar a personas con IA.