MANIPULACIÓN

Deepfake, la amenaza que viene

Los expertos consideran que estas técnicas de manipulación de vídeo y audio pasarán del mundo de la política y los famosos al entorno empresarial.

Nuevas amenazas para el año nuevo. | Shutterstock.
Publicidad

Las compañías de ciberseguridad advierten de que la manipulación de vídeo y audio a través de técnicas de deepfake es una de las grandes amenazas a las que se enfrentará el mundo en 2020.

Si hasta ahora hemos visto el resultado de estas fórmulas de manipulación empleadas para adulterar imágenes de famosos y políticos, los expertos consideran que el año que viene asistiremos a su uso, cada vez más exhaustivo, en el mundo empresarial, donde se empleará para atacar a los empleados y extorsionar a las compañías.

El deepfake es una técnica de manipulación que emplea sofisticadas fórmulas de edición de vídeo y audio que se sirven de Inteligencia Artificial para crear situaciones de aparente realismo pero que, en realidad, son falsas. Es decir, son capaces de hacer que una persona parezca otra o que alguien diga algo que nunca ha dicho de forma que es prácticamente imposible saber que es falso.

Más de siete millones de personas han visto en YouTube el vídeo en el que el expresidente Obama llama idiota a su sucesor en el cargo, Donald Trump (cosa que nunca ocurrió).

O el del actor Bill Hader convertido en Tom Cruise por obra y arte de la inteligencia artificial.

Pero lo que comenzó como una técnica que asombraba al mundo por su habilidad para crear situaciones imposibles, se ha convertido en un arma muy poderosa no sólo de desinformación (imposible saber qué es cierto y qué no) sino también de difamación. De hecho, uno de los usos más desarrollados tiene que ver con el porno. Un estudio realizado por la compañía de ciberseguridad holandesa Deeptrace señalaba el pasado mes de octubre que el 96% de este tipo de vídeos manipulados online son de contenido pornográfico, un fenómeno que afecta especialmente a las mujeres, que ven sus rostros en escenas de alto contenido sexual en las que nunca han participado. El diario argentino Infobae recogía hace unas semanas la opinión de Robert Prigge, CEO de Jumio, para quien la creciente facilidad para crear estas falsificaciones cada vez más realistas será una de las grandes amenazas a los sistemas de seguridad basados en sistemas biométricos. Y es que, además, las herramientas para realizarlas son cada vez más sofisticadas pero fáciles de usar, lo que las sitúa al alcance prácticamente de cualquiera.

Deepfakes de audio

Varias compañías, entre ellas Trend Micro, advierten en sus informes de predicciones para 2020 que esta tecnología está abocada a ser empleada por los ciberdelincuentes para manipular a las empresas, bien sea mediante suplantación de identidad, bien mediante la difusión selectiva de noticias falsas.

Y esta es uno de los grandes retos del próximo año. De hecho, ya hay constancia de al menos tres casos en los que directivos de grandes compañías han sufrido ataques con deepfakes de audio. Las informaciones, reveladas por empresas de ciberseguridad, no han detallado de qué empresas se trata pero, según Trend Micro, una energética fue estafada (los delincuentes sacaron casi 270.000 euros) usando una Inteligencia Artificial que clonó la voz del CEO de la compañía firma.

En este sentido, hay voces ya que reclaman la regulación de este tipo de técnicas que han sido prohibidas en algunos países, poco ejemplares, es cierto, como China. Pero otros lugares, como California, también han regulado el asunto. El estado aprobó hace unos meses una ley que prohibirá, al menos hasta el 1 de enero de 2021, la publicación y distribución de vídeos manipulados durante los 60 días anteriores a unas elecciones.

Y hay más. El Gobierno de Estados Unidos ha financiado un proyecto sobre el "análisis forense de contenidos" para luchar contra los deepfakes, lo mismo que han hecho Facebook y Microsoft. Y Google publicó una gigante base de datos con vídeos falsificados para combatirlos.

LLC
 |  Madrid | 20/12/2019
Leer mas

Los mas vistos