Saltar al contenido principal

Ciberdelincuencia con IA:
¿La próxima frontera?

Un año después de su irrupción en 2023, la inteligencia artificial (IA) está siendo usada por los grupos de ciberdelincuentes para automatizar y mejorar su actividad, trabajar más rápido y ser más atrevidos que nunca en sus tácticas de ataque.

  • El lunes 29 de enero de 2024, un empleado de una empresa de ingeniería denunció a las autoridades de Hong Kong que había asistido a una videoconferencia y había sido engañado para que pagara 200 millones de dólares de Hong Kong (20 millones de libras esterlinas) de su empresa a un estafador.¹ Poco después de que la Policía de Hong Kong iniciara la investigación, el superintendente de policía encargado del caso se dio cuenta de que esta empresa había sufrido uno de los robos más audaces realizados con IA hasta la fecha.

    Al cabo de una semana, Chan envió una advertencia al mundo, notificando a los medios de comunicación que se trataba de un ataque deepfake contra la empresa.² "Como las personas de la videoconferencia se parecían a las reales, el informador realizó 15 transacciones siguiendo las instrucciones... Creo que el estafador descargó vídeos con antelación y luego utilizó IA para añadir voces falsas para utilizarlas en la videoconferencia", señaló la Policía.

  • Más tarde se supo que este empleado trabajaba para la multinacional británica Arup, que tiene 18.500 empleados en 40 países. Aunque este suceso en Arup se conoce ahora como el "Zoom de la perdición" (Zoom of Doom), la empresa no es la única que se enfrenta a la amenaza de los deepfake. La mayor empresa de publicidad del mundo, WPP, fue víctima de un ataque de deepfake cuando la voz de su consejero delegado, Mark Read, fue clonada por estafadores que utilizaron un perfil falso de WhatsApp para intentar engañar a sus colegas y hacerles compartir dinero y datos personales.³ En abril, de forma similar, un empleador de LastPass frustró un ciberataque de delincuentes que utilizaban audio deepfake para hacerse pasar por su CEO, Karim Toubba.⁴

    Aunque la IA ha generado expectación, estos ejemplos ponen de relieve cómo esta tecnología está siendo utilizada como arma por los ciberdelincuentes organizados para engañar a los empleados y robar millones a empresas vulnerables. Los empleados ya no pueden creer lo que ven y oyen, y se necesitan técnicas de autenticación más sofisticadas para evitar que se produzcan este tipo de ataques.

  • “El tema de la autenticidad será un reto para los empresarios y los tribunales en los próximos años. ¿Cómo verificar la autenticidad de voces e imágenes en un mundo en el que la IA engaña fácilmente a las personas? Estos problemas de deepfake se manifestarán en la ciberdelincuencia, la transferencia de dinero y las noticias falsas, que proliferarán en los próximos años.” 

    Melissa Collins
    Claims Focus Group Leader, Cyber and Technology, Third-Party Claims 

“La IA añade definitivamente un nivel de complejidad que proporciona a los ciberdelincuentes técnicas mejoradas para aumentar su alcance e impacto”.

Melissa Carmichael
Head of Cyber Services, Cyber Risks

ᵛⁱⁱ La encuesta de este año se llevó a cabo entre el 5 de enero de 2024 y el 15 de enero de 2024 con 3.500 ejecutivos con sede en el Reino Unido, Estados Unidos, Canadá, Singapur, Francia, Alemania y España de distintos tamaños, que operan en 9 amplios sectores industriales con operaciones internacionales.

¹ https://www.theguardian.com/world/2024/feb/05/hong-kong-company-deepfake-video-conference-call-scam 
² https://www.theguardian.com/technology/article/2024/may/17/uk-engineering-arup-deepfake-scam-hong-kong-ai-video
³ https://www.ft.com/content/308c42af-2bf8-47e4-a360-517d5391b0b0 
https://www.scmagazine.com/news/lastpass-thwarts-attempt-to-deceive-employee-with-deepfake-audio

La información contenida en este documento pretende ser información general sobre la gestión de riesgos. Beazley no presta servicios o asesoramiento jurídico. No debe interpretarse ni utilizarse como asesoramiento jurídico y no pretende sustituir la consulta con un abogado. Aunque se ha tenido un cuidado razonable en la preparación de la información contenida en este documento, Beazley no acepta ninguna responsabilidad por cualquier error que pueda contener o por cualquier pérdida supuestamente atribuible a esta información. BZ CBR 119.