Deepfake
Los peligros que esconde la tecnología que ha «resucitado» a Lola Flores
El «deepfake» está al alcance de cualquier usuario, y ya se ha empleado para suplantar a políticos y empresarios con fines maliciosos
La tecnología no deja de desafiar los límites entre realidad y ciencia ficción. Así lo demuestran casos como el del reciente anuncio de Cruzcampo , en el que la cervecera rescata a la recordadísima Lola Flores mediante el empleo de Inteligencia Artificial para ... convertirla en imagen de su última campaña promocional. El resultado, tremendamente realista, y especialmente emotivo para todos aquellos que no olvidan a « La Faraona », ha dejado ojipláticos incluso a los familiares de la artista . Sin embargo, cuando hablamos de « deepfakes », que es como se conocen a las alteraciones en el rostro y la voz de una persona mediante el uso de un software, no lo hacemos en exclusiva sobre casos como este; o sobre aplicaciones recreativas, como Reface App . Sino también sobre uno de los mayores quebraderos de cabeza que tienen, en estos momentos, las empresas de ciberseguridad de todo el mundo.
¿La culpa? Lo enormente accesible que es, en estos momentos, la tecnología necesaria para cualquier persona sin grandes conocimientos en informática. Y también, evidentemente, las cosas que se puede hacer con ella; que van desde poner a un presidente del gobierno a decir y hacer lo que uno quiera, hasta «desnudar» a una actriz de Hollywood o suplantar al director ejecutivo de cualquier empresa. La imaginación es el límite .
«Los "deepfakes" son falsificaciones de material de vídeo o audio cuyo alto nivel técnico los hace creíbles. Utilizando este tipo de tecnología, es posible crear material audiovisual falso de personalidades o gente famosa con contenido completamente arbitrario. Se ha ido publicando software que facilita más su creación y verosimilitud. Hoy en día, cualquier usuario puede comenzar a crear este tipo de vídeos con relativa facilidad y ofreciendo resultados bastante aceptables», explica a ABC David Sancho, responsable del equipo de investigación de la empresa de ciberseguridad Trend Micro .
Esta tecnología comenzó a llamar especialmente la atención en 2016 . Fue entonces cuando la Universidad de Washington realizó un experimento, nombrado como « Synthesizing Obama », en el que se cambiaba la voz del expresidente de Estados Unidos Barack Obama para que dijese que su sucesor al frente del país norteamericano, Donald Trump, «es un total y completo idiota».
Tan solo un año después, aparecieron en internet una serie de vídeos pornográficos en los que, gracias al empleo de esta tecnología, se había cambiado los rostros de las actrices originales por los de algunas de las figuras más exitosas del cine y la televisión. Desde Gal Gadot , a la que hemos visto recientemente en la segunda cinta de «Wonder Woman», hasta Maisie Williams , Arya Stark en «Juego de Tronos». «Es imposible intentar detener a quienes cortan y pegan mi imagen (o la de cualquier otra persona) a un cuerpo diferente. Protegerte de internet y de su naturaleza depravada es una causa perdida», explicaba, por entonces, en declaraciones a «The Washington Post» Scarlett Johansson, otra de las actrices afectadas.
Estafas a empresas
El responsable de investigación de Trend Micro apunta a las empresas como otro de los principales objetivos de este tipo de contenido: «Un vídeo con declaraciones falsas de un empresario puede mover las acciones de su empresa, o de otras asociadas, hacia arriba o hacia abajo». Sancho pone como ejemplo sus posibilidades como parte del «timo del CEO». Una estafa en la que los cibercriminales, valiéndose de ingeniería social, suplantan a un directivo de una empresa para lograr algún tipo de beneficio contactando con sus empleados, normalmente económico.
«Ya existen casos en los que los ciberdelincuentes han utilizado las deepfakes con éxito en este campo. En 2019 aparecieron noticias de ciberdelincuentes que habían utilizado una voz generada por IA en ingeniería social. La organización afectada fue una compañía de energía que fue víctima de un fraude de 243.000 dólares en el que los estafadores utilizaron Inteligencia Artificial para imitar la voz del CEO de la empresa, tal y como publicaba «The Wall Street Journal», dice el experto de Trend Micro.
Por su parte, Petr Somol, director de investigación en Inteligencia Artificial de la firma de ciberseguridad Avast , resaltaba a este periódico recientemente que para este 2021, en plena pandemia , se espera que el «deepfake» con fines maliciosos crezca: «Las teorías de conspiración sobre el coronavirus, como su supuesta propagación a través de 5G, podrían volver a enfatizarse a través de videos "deepfake", por ejemplo, mostrando erróneamente a los políticos como conspiradores. Es probable que la pandemia, el aumento resultante de personas teletrabajando y una mayor dependencia de la conectividad en línea, así como la creciente presión económica, combinada con la incertidumbre, contribuyan a la efectividad del uso de deepfakes para difundir desinformación»