Oficinas Centrales

Bahía de Ballenas No. 58
Col. Verónica Anzures, Alcaldía Miguel Hidalgo
C.P. 11300, Ciudad de México

Contácto

A principios del año pasado el gerente de un banco en los Emiratos Árabes Unidos (EAU) recibió la llamada de una persona con voz conocida: el director de una empresa con quien ya se había comunicado antes. Este director quería notificarle que su negocio estaba a punto de realizar una adquisición, por lo que necesitaba el banco le autorizara transferencias por un valor de 35 millones de dólares.

De acuerdo a un informe judicial que obtuvo la revista Forbes, clonar la voz utilizando Inteligencia Artificial aun cuando parece un concepto de ciencia ficción, es más real de lo que parece y esta tecnología ya se utilizó para robar un banco en los EAU.

Se generó un ejercicio para coordinar los procedimientos, se contrató a un abogado Martín Zelner y al tiempo que hablaba por teléfono podía ver en su bandeja de correo los mensajes tanto del director como de Zelner confirmando las cantidades de dinero que necesitaban para hacer los movimientos. El gerente, creyendo que todo parecía legítimo, comenzó a realizar las transferencias solicitadas.

Sin embargo, el gerente había sido parte de una elaborada estafa, donde los culpables habían utilizado “deep voice” una tecnología similar a los deepfakes con el que pudieron clonar la voz del director a partir de un discurso. Esto de acuerdo con el documento judicial que Forbes pudo obtener, en el que se menciona que los Emiratos buscaron ayuda de investigadores estadounidenses para rastrear 400,000 dólares en fondos robados que ingresaron a cuentas con sede en los Estados Unidos. De acuerdo con la investigación, se cree que el esquema de estafa involucró a por lo menos 17 personas enviando el dinero a cuentas a lo largo del mundo.

Este sería el segundo caso conocido en que se utiliza la tecnología “deep voice” para hacer un robo, pues en 2019 estafadores intentaron hacerse pasar por el director ejecutivo de una empresa de energía con sede en Reino unido en un intento de sustraer 240,000 dólares, según el Wall Street Journal.

Los investigadores de Dubai a cargo del caso han revelado que los delincuentes “utilizaron una tecnología ‘deep voice’ para imitar la voz del director”. Las autoridades creen que en este plan participaron hasta 17 personas diferentes y que el efectivo robado fue canalizado hacia diversas cuentas bancarias repartidas por todo el mundo.

Lo creas o no, esta no es la primera vez que sucede algo así. En 2019, una empresa energética en Reino Unido sufrió un destino similar: los estafadores lograron robar unos 243.000 dólares haciéndose pasar por el director ejecutivo de la empresa. Y, según expertos en inteligencia artificial, tampoco es probable que vaya a ser la última vez.

“Los ‘deep fakes’ de vídeo y de audio representan el fascinante desarrollo tecnológico del siglo XXI, pero también son increíblemente peligrosas y representan una gran amenaza para los datos, el dinero y las empresas”, dijo a Forbes Jake Moore, experto en ciberseguridad. “Actualmente estamos viendo cómo actores malintencionados utilizan su experiencia y recursos para acceder a lo último en tecnología para manipular a personas que, inocentemente, desconocen el alcance de estas tecnologías de ‘deep fake’ e incluso su existencia”.

¿Qué es Deep Voice?

Este sistema de suplantación de voz es todavía uno de los más recientes avances para crear voces falsas lo más naturales e idénticas posibles a las voces originales.

El procedimiento para generar una voz sintética puede ser un proceso tedioso y a la vez bastante simple, como señala The Verge, que solo requiere capturar un archivo de voz de la persona de aproximadamente 30 minutos mientras esta lee un guion. Después el audio se enviará a procesar y al terminar la copia estará disponible para que genere en un audio bastante realista lo deseado.

Anteriormente el proceso para generar un producto realista implicaba grabar a un actor de voz humano leyendo palabras sin coherencia, lo que eventualmente permitía generar frases y respuestas. Sin embargo, ahora es posible utilizar redes neuronales que pueden hacer uso del audio sin procesar de alguna persona para obtener el mismo resultado.

Además, con la llegada de nuevos servicios especializados que se enfocan en la síntesis de voz, como Resemble AI o Respeecher, la tecnología solamente mejorará en los próximos años. Aunque los usos pueden ser bastante variados, principalmente en entornos donde se necesita generar mensajes automatizados, también tiene el riesgo de peligro potencial para fines maliciosos como el caso de en Emiratos Árabes Unidos.

Está claro que las tecnologías ‘deep fake’ se han vuelto tremendamente buenas en su trabajo. ¿Deberíamos regularlo? Podría ser una buena idea, aunque los críticos están divididos sobre qué camino deben tomar estas nuevas leyes. Algunas personas dicen que estas leyes crearían más problemas de los que resuelven, mientras que otros argumentan que podrían afectar la libertad de expresión y libertades creativas. De todas formas, parece algo que deberíamos resolver pronto, antes de que este tipo de robos bancarios se conviertan en la nueva normalidad.

REFERENCIAS

Hernandez, Gonzalo, Alguien “clonó” la voz de un director de empresa con IA para llamar a sus empleados y hacer una estafa por 400,000 dólares, Xataka Mexico, recuperado: https://www.xataka.com.mx/robotica-e-ia/alguien-clono-voz-director-empresa-ia-para-llamar-a-sus-empleados-hacer-estafa-400-000-dolares

Ropek, Lucas, Unos ladrones clonan con IA la voz del director de una empresa para robar 35 millones de dólares, gizmodo España, recuperado: https://es.gizmodo.com/unos-ladrones-clonan-con-ia-la-voz-del-director-de-una-1847870560

Share:

José Luis

administrator