Vida y estilo

Roban a un banco de Emiratos Árabes 35 millones de dólares a través de una llamada de teléfono con una voz clonada

El cibercrimen puede entrar en una nueva fase.

Una grabadora, un teléfono, algún correo electrónico, un eficaz uso de tecnología relacionada con la Inteligencia Artificial en su modalidad de deepfake y un equipo de personas debidamente motivado para logran un botín de 35 millones de dólares ha bastado para dar un golpe, a medio camino entre el robo clásico y la estafa, suculento. Lo habíamos visto en películas sobre delitos de guante blanco. Ahora ya son posibles en la realidad.

Un grupo de delincuentes logró a principios de 2020 que el director de un banco de los Emiratos Árabes Unidos les transfiriera 35 millones de dólares. Les bastó con clonar la voz de un alto directivo de una empresa. Una llamada de teléfono, unas órdenes precisas y el dinero voló.

El cibercrimen y 'deepfake'

El director del banco que fue víctima del asalto recibió una llamada de un hombre cuya voz reconoció: un directivo de una empresa con el que ya había hablado. Este supuesto alto ejecutivo necesitaba que el banco autorizara una transferencias por valor de 35 millones de dólares para poder realizar una adquisición.

Según la revista Forbes, los ladrones habrían contratado a un abogado para coordinar los trámites, que fueron detallados y las instrucciones en varios correos electrónicos. El director del banco, creyendo que todo parecía legítimo, empezó a hacer las transferencias ordenadas por sus supuestos clientes.

Pero todo era un fake, una estafa en la que los malos emplearon tecnología de Inteligencia Artificial para clonar la manera de hablar del directivo real, según un documento judicial desvelado por Forbes.

Las investigadores del los Emiratos han solicitado ayuda a EEUU dado que han logrado rastrear parte del botín, 400.000 dólares, que al parecer fue a unas cuentas del Centennial Bank en el país norteamericano. Los emiratíes creen que es obra de un grupo de unas veinte personas.

Este suceso muestra un paso más del cibercrimen en el uso de alta tecnología. Y es un ejemplo más de los peligros de lo que se conoce como imágenes y voces deepfake, que no es otra cosa que emplear la Inteligencia Artificial para alterar imágenes y y sonidos para hacerles decir y hacer otras cosas. Es un recurso muy utilizado en películas y anuncios para recrear situaciones y personas ya fallecidas.

20/10/2021