Alertan sobre una plaga de vídeos en redes en los que usan la voz de Elon Musk para estafarte
Los criminales se aprovechan de la imagen de famosos para ofertar productos y servicios con el fin de robar dinero
He pasado un mes probando el móvil que te traduce todas las llamadas: ¿funciona tan bien como parece?
![Elon Musk](https://s1.abcstatics.com/abc/www/multimedia/tecnologia/2024/02/19/musk-reuters-RIufMaAxttccPBXteQ40mxJ-1200x840@abc.jpg)
Si navegas por redes sociales, seguro que, en más de una ocasión, te has encontrado con anuncios publicitarios que intentan captar tu atención informando, aparentemente, sobre la muerte o el arresto de alguna personalidad conocida. También hay casos en los que el famoso de turno aparece en vídeo y hasta te invita, con una voz que parece la suya, a que dediques algo de tu dinero a invertir en un negocio boyante que, de seguro, te va a dar grandes beneficios. Pero, qué va. En la mayoría de casos se trata de estafas en las que los criminales utilizan inteligencia artificial (IA) para engañarte y dejarte sin dinero.
Recientemente, la empresa de ciberseguridad Bitdefender ha publicado un estudio en el que alerta de que plataformas como YouTube, y redes sociales como Facebook e Instagram, llevan meses llenándose de 'deepfakes' de voz de personas famosas, que intentan promocionar sorteos y concursos fraudulentos, juegos de azar y oportunidades de inversión para intentar engañar a los internautas. Y el problema es que, con el auge de la IA, no hace falta ser una lumbrera de la informática para lanzar estas estafas. Ni de lejos.
«Cualquiera puede crear un clon de voz realista utilizando un software de clonación de voz con tecnología de inteligencia artificial que se puede encontrar online. Existen numerosas herramientas gratuitas de clonación de voz con IA que solo necesitan un par de segundos o minutos de audio para ofrecer una réplica de voz digital propia o de otra persona», señala en declaraciones a ABC Alina Bizga, analista de seguridad de Bitdefender.
Efectivamente, crear un 'deepfake' es bastante sencillo; ya que solo necesario recopilar muestras de la voz humana que se quiere clonar, ya sea a través del audio de un vídeo o mediante una grabación física de alguien hablando. Y desde aquí, es suficiente con encontrar la aplicación más indicada; escoger la red social en el que quieres lanzar la campaña fraudulenta, y esperar a conseguir beneficios. Porque las plataformas de internet, además, no están teniendo demasiada fortuna a la hora de combatir esta amenaza.
«Las plataformas online, en general, todavía necesitan ayuda para contrarrestar este tipo de contenido malicioso debido al gran volumen de contenido que se comparte a diario y a las insuficientes pautas regulatorias y el despliegue de tecnologías de detección de deepfakes», dice Bizga.
«Las empresas de redes sociales pueden ayudar a mitigar la propagación de las estafas de clonación de voz colaborando activamente con los investigadores y ayudando al desarrollo y la implementación de tecnologías de detección que puedan marcar y eliminar de forma proactiva este tipo de contenido malicioso antes de que pueda afectar significativamente a los espectadores e invertir en campañas de educación y concienciación de los usuarios», prosigue la experta.
De Elon Musk a Tiger Woods
Bitdefender ha hecho un análisis de este fenómeno y se ha centrado principalmente en los 'deepfakes' de voz que circulan por Facebook, 'app' propiedad de Meta, aunque no es la única en la que proliferan estos ataques. Ya se han detectado también en otras plataformas como Instagram o YouTube.
En primer lugar, la firma ha determinado que la mayor parte del contenido fraudulento descubierto empleó generadores de voz de IA para clonar las voces de personajes famosos, como Elon Musk, Oprah Winfrey, Kylie Jenner, Vin Diesel, Jennifer Aniston o Tiger Woods.
Los ciberdelincuentes usaron la imagen de estas personas para promover diferentes engaños mediante vídeos publicitarios con una duración inferior a 30 segundos. Hay varios tipos. Entre ellas, hay casos en los que se tienta a la víctima afirmando que ha sido la ganadora de un sorteo o de un premio. «Estas siempre implican que ganes un concurso desconocido y suenan demasiado buenos para ser verdad: ves un video de personas famosas regalando el última MacBook o un iPhone online, por ejemplo», señala la investigadora de Bitdefender.
«Estos obsequios siempre son limitados y el mensaje presiona al individuo a actuar rápidamente o corre el riesgo de perderse una oportunidad tan única. Los usuarios pueden, sin darse cuenta, sentir la necesidad de actuar sin dudar si el obsequio es real», zanja Bizga.
Para sumar víctimas, los estafadores llevaron a cabo el método tradicional de engaño, consistente en prometer un premio a los 100, 1.000 o 10.000 primeros participantes o bien el retorno de sus inversiones multiplicado por cinco. Una vez las víctimas hacen clic sobre el enlace falso, que acompaña a la grabación, se las redirige a una página web fraudulenta en el que se piden todo tipo de datos personales y a realizar un pago para poder recibir el producto en cuestión. Este, evidentemente, nunca llegará.
Cómo protegerte
Según los cálculos de la firma de ciberseguridad, las estafas 'deepfake' de voz se dirigieron al menos a un millón de usuarios estadounidenses y europeos, entre ellos, habitantes de España. De hecho, un solo anuncio llegó a 100.000 usuarios.
Para evitar esta clase de estafas, la firma de ciberseguridad destaca que se debe verificar la calidad y la consistencia de la voz, debido a que las voces clonadas suelen tener tonos inusuales, ser estáticas o presentar inconsistencias en los patrones del habla. Más allá de esto, en internet, cuando algo es demasiado bueno para ser cierto normalmente es porque se trata de una estafa. Ante la más mínima duda sobre la veracidad de la promoción, lo más recomendable es no hacer caso.
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para suscriptores
Suscribete