MI SELECCIÓN DE NOTICIAS
Noticias personalizadas, de acuerdo a sus temas de interés
Ferrari evita una estafa hecha con deepfake a través de mensajes Whatsapp y una llamada simulando al CEO Benedetto Vigna
Era media mañana de un martes de este mes cuando un ejecutivo de Ferrari empezó a recibir un montón de mensajes inesperados, aparentemente del CEO.
"Oye, ¿te has enterado de la gran adquisición que estamos planeando? Podría necesitar tu ayuda", decía uno de los mensajes que pretendía ser del CEO Benedetto Vigna.
Los mensajes de WhatsApp vistos por Bloomberg no procedían del número de celular profesional habitual de Vigna. La foto de perfil también era diferente, aunque se trataba de una imagen del CEO con gafas posando con traje y corbata, los brazos cruzados, delante del logotipo del caballo de Ferrari.
"Prepárate para firmar el Acuerdo de Confidencialidad que nuestro abogado te enviará lo antes posible", decía otro mensaje del imitador de Vigna. "El regulador del mercado italiano y la Bolsa de Milán ya han sido informados. Estén preparados y les rogamos la máxima discreción".
Lo que ocurrió a continuación, según personas familiarizadas con el suceso, fue uno de los últimos usos de las herramientas deepfake para llevar a cabo una conversación telefónica en directo con el objetivo de infiltrarse en una empresa reconocida internacionalmente. El fabricante italiano de carros salió indemne después de que el ejecutivo que recibió la llamada y se diera cuenta de que algo no iba bien, dijeron las personas, que pidieron no ser identificadas por lo delicado del asunto.
La voz que personifica a Vigna es convincente: una imitación perfecta del acento del sur de Italia.
El defraudador de Vigna empezó a explicar que llamaba desde otro número de teléfono móvil porque necesitaba hablar de algo confidencial: un acuerdo que podría tener algunos problemas relacionados con China y que requería la realización de una operación de cobertura de divisas no especificada.
El ejecutivo se alarmó y empezó a tener sospechas, según cuentan. Empezó a captar las más leves entonaciones mecánicas que no hicieron sino incrementar sus sospechas.
"Perdone, Benedetto, pero necesito identificarle", dijo el ejecutivo. Le planteó una pregunta: ¿Cuál era el título del libro que Vigna acababa de recomendarle unos días antes (era Decálogo de la complejidad: Actuar, aprender y adaptarse en el incesante devenir del mundo, de Alberto Felice De Toni)?
La llamada terminó abruptamente. Ferrari abrió una investigación interna, dijeron las personas. Representantes de la empresa con sede en Maranello, Italia, declinaron hacer comentarios sobre el asunto.
No es el primer intento de este tipo de hacerse pasar por un alto ejecutivo. En mayo, se informó de que Mark Read, consejero delegado del gigante de la publicidad WPP Plc, también fue objeto de una estafa de deepfake, finalmente infructuosa pero igualmente elaborada, que le imitaba en una llamada de Teams.
"Este año estamos viendo un aumento de los delincuentes que intentan clonar la voz utilizando IA", dijo en una entrevista Rachel Tobac, CEO de la empresa de formación en ciberseguridad SocialProof Security.
Aunque estas herramientas de IA generativa pueden crear imágenes, vídeos y grabaciones deepfake convincentes, aún no han demostrado ser lo bastante convincentes como para provocar el engaño generalizado del que muchos han advertido.
Sin embargo, algunas empresas han sido víctimas de los estafadores. A principios de este año, una multinacional anónima perdió $US26 millones de dólares después de que unos estafadores engañaran a sus empleados en Hong Kong utilizando tecnología deepfake, según informó en febrero el South China Morning Post. Los estafadores se hicieron pasar por el director financiero de la empresa y otras personas en una videollamada y convencieron a la víctima para que transfiriera dinero.
Otras empresas, como CyberArk, dedicada a la seguridad de la información, ya están formando a sus ejecutivos para que sepan detectar las estafas de los robots.
"Es sólo cuestión de tiempo y se espera que estas herramientas de sofisticación de deepfakes basadas en IA se vuelvan increíblemente precisas", dijo Stefano Zanero, profesor de ciberseguridad en el Politécnico de Milán de Italia, en una entrevista telefónica.
Antti Hakkanen, ministro de Defensa finlandés, dijo que hay un riesgo en la creciente cooperación de Rusia con Corea del Norte, Irán y China
Trump dio pocos detalles concretos sobre la campaña, que no parece haber mencionado antes y que comparó con dirigir una campaña política
El estudio, realizado mediante encuestas a más de 23.700 adultos, aseguró que en promedio 65% de las personas creen que 2024 fue un mal año para su país