¿Y esto lo cubre la integral bancaria?

El hecho fue en los EAU y la Fiscalía de Dubái, que dirige la investigación, cree que la estafa por 35 millones de dólares involucró a al menos a 17 personas...



Un grupo de ciberdelincuentes clonó la voz del director de una empresa y logró estafar por 35 millones de dólares a un banco de Emiratos Árabes Unidos.

A principios del año pasado, el gerente de un banco del país árabe recibió la llamada de un hombre cuya voz era idéntica a la de un empresario con el que ya había tenido trato. Este le comentó que su compañía estaba a punto de realizar una adquisición, por lo que necesitaba que autorizara una serie de transferencias por valor de 35 millones de dólares.

El delincuente virtual le dijo que había contratado a un abogado llamado Martin Zelner para coordinar las transacciones, tras lo cual el banco recibió varios correos electrónicos del supuesto empresario y del letrado en los que se confirmaba la cantidad de dinero que era necesario mover y a dónde.

El gerente, creyendo que todo estaba en regla, dio luz verde a las operaciones sin saber que estaba siendo víctima de un engaño mediante una tecnología de inteligencia artificial conocida como "voz profunda".

La Fiscalía de Dubái, que dirige la investigación, cree que se trata de un elaborado plan que involucró al menos a 17 personas.

Los fiscales piensan que el dinero fue enviado a cuentas bancarias repartidas por diferentes partes del mundo, incluyendo 400.000 dólares a cuentas con sede en EE.UU. gestionadas por Centennial Bank, motivo por el que han solicitado la ayuda de investigadores del país norteamericano para rastrear el dinero.

"Las falsificaciones profundas de audio y visuales representan el fascinante desarrollo de la tecnología del siglo XXI, pero también son potencialmente increíblemente peligrosas y representan una gran amenaza para los datos, el dinero y las empresas", comentó Jake Moore, expolicía británico y experto en ciberseguridad de la compañía ESET.

En su opinión, cada vez habrá más casos de manipulación de audios porque es más sencillo que hacer videos 'deepfake'. "Sin la educación ni el conocimiento de este nuevo tipo de vector de ataque, así como mejores métodos de autentificación, es probable que más empresas sean víctimas de conversaciones muy convincentes", advirtió.

No es la primera vez que se utilizan herramientas de modelado de voz para llevar a cabo fraudes de este tipo. En 2019, un grupo de ciberdelincuentes se hizo pasar por el director general de una empresa de energía con sede en Reino Unido para intentar hacerse con 240.000 dólares.


https://www.diariopopular.com.ar/internacionales/clonan-la-voz-del-director-una-empresa-y-le-roban-35-millones-dolares-un-banco-n592591