Crece la amenaza de Deepfakes en organizaciones

- Anuncio Publicitario -

El número de deepfakes o videos falsos crece a un ritmo anual del 900%, según el Foro Económico Mundial. Y es que el uso de redes neuronales (método de Inteligencia Artificial) y del aprendizaje profundo o Deep Learning (de ahí el término deepfake) permite a cualquiera usar imágenes, videos y audio para crear contenidos multimedia realistas, en los que se altera digitalmente el rostro o cuerpo de una persona para que parezca otra.

Con estos contenidos, el objetivo de la ciberdelincuencia es acosar, vengarse, realizar estafas, entre otros delitos, convirtiéndose en casos que frecuentemente ocupan titulares en los medios de comunicación. Los analistas de Kaspersky descubrieron que los cibercriminales ofrecen sus servicios maliciosos en la Darknet para crear estos videos falsos y, recopilan los tres principales tipos de fraude basados en deepfakes.

- Anuncio Publicitario -

Fraude financiero. Los ciberdelincuentes utilizan deepfakes para hacerse pasar por celebridades, políticos y empresarios para que las víctimas caigan fácilmente en el engaño. Un ejemplo de ello es un video creado artificialmente el año pasado con Elon Musk como protagonista. En éste, el fundador de Tesla prometía grandes ganancias si se seguían una serie de consejos para invertir en criptomonedas. El contenido se volvió viral y muchos usuarios perdieron su dinero. Para crear deepfakes como este, los estafadores utilizan imágenes de personas de interés o combinan videos antiguos y publican videos o transmisiones en vivo en redes sociales, prometiendo algún beneficio, como duplicar cualquier pago en criptomoneda.

Deepfakes pornográficos. Con la foto de una persona, pueden crear una pieza en la que su víctima aparezca en una situación comprometedora. De hecho, el FBI acaba de emitir una advertencia sobre la manipulación de fotos y videos publicados en la red para la creación de contenido explícito y esquemas de extorsión. En varias ocasiones se han detectado videos de este tipo utilizando rostros conocidos, pero las víctimas también pueden ser personas anónimas, sufriendo graves consecuencias. Quienes son involucrados en este ataque ven dañada su reputación y vulnerados sus derechos.

Estafas empresariales. Los deepfakes pueden utilizarse para atacar a empresas mediante extorsión, chantaje o espionaje industrial. En una ocasión, los ciberdelincuentes engañaron al gerente de un banco de Emiratos Árabes Unidos con este método, robando $35 millones de dólares. A partir de una pequeña grabación de voz, crearon una locución con la que lograron estafar al responsable de la entidad.

Los responsables de recursos humanos ya están en alerta ante el uso de deepfakes por parte de candidatos que solicitan trabajo a distancia, según otra advertencia del FBI. En el caso de Binance, los atacantes utilizaron imágenes de personas que encontraron en Internet para crear videos falsos y añadirlos a los currículums. Si consiguen engañar a los responsables de recursos humanos y más tarde reciben una oferta, pueden robar datos de la empresa.

Para protegerse de este tipo de engaño, Kaspersky recomienda:

1.- Revisar las prácticas de seguridad en la empresa, tanto en temas de software como de capacitación del personal. Además de utilizar herramientas como Kaspersky Threat Intelligence para estar al tanto de las últimas amenazas.

2.- Crear un “muro humano” informando al empleado sobre lo que es un deepfake y los riesgos que implica. Kaspersky Automated Security Awareness Platform mantiene a la plantilla informada sobre las últimas amenazas al tiempo que aumenta la alfabetización digital.

3.- Usar fuentes de información fiables. La desinformación es clave para la proliferación de los deepfakes.

4.- Ser escéptico frente a videos o grabaciones de voz es importante para ayudar a reducir las probabilidades de caer en la estafa.

5.- Tener en cuenta las características que puedan indicar que un video es falso: movimientos bruscos, cambios en la iluminación y en el tono de la piel, parpadeo extraño o falta de este, labios mal sincronizados respecto a la voz o baja calidad de la reproducción.

- Anuncio Publicitario-
spot_img

Artículos Recientes

Más artículos