El 38% de las pérdidas por estafas ya están vinculadas a la IA
La inteligencia artificial está transformando el mundo empresarial, impulsando la eficiencia y la innovación. Su capacidad para automatizar tareas, optimizar costes y mejorar la toma de decisiones ha llevado a una adopción creciente en los últimos años – ya que según Gartner, en 2023, más de la mitad de las organizaciones a nivel mundial ya utilizaban […] La entrada El 38% de las pérdidas por estafas ya están vinculadas a la IA es original de MuyPymes

La inteligencia artificial está transformando el mundo empresarial, impulsando la eficiencia y la innovación. Su capacidad para automatizar tareas, optimizar costes y mejorar la toma de decisiones ha llevado a una adopción creciente en los últimos años – ya que según Gartner, en 2023, más de la mitad de las organizaciones a nivel mundial ya utilizaban IA generativa, una cifra que sigue en aumento. Sin embargo, su uso malintencionado por parte de ciberdelincuentes está dando lugar a una nueva generación de fraudes que ponen en jaque la seguridad y estabilidad de las empresas.
“El auge de la IA generativa ha abierto un nuevo capítulo en la ciberseguridad. Si bien ofrece enormes oportunidades para la innovación, también permite que los ciberdelincuentes amplifiquen sus ataques con un realismo y precisión sin precedentes. Las empresas deben estar preparadas para enfrentar esta nueva generación de amenazas, reforzando tanto su infraestructura de seguridad como la formación de sus empleados”, advierte Josep Albors, director de investigación y concienciación de ESET España.
Nuevas amenazas: deepfakes, suplantación y robo de identidad
El auge de herramientas basadas en IA está facilitando ataques cada vez más sofisticados. Por ello, ESET, compañía líder en ciberseguridad, destaca algunas de las tácticas más peligrosas que los ciberdelincuentes están utilizando con la ayuda de la inteligencia artificial para estafar a las empresas:
- Falsificación de empleados: Empresas de todo el mundo han sido infiltradas por individuos norcoreanos que utilizan IA para crear currículums falsos, manipular imágenes y superar verificaciones de identidad. El objetivo final es ganar dinero para enviarlo al gobierno de Corea del Norte, así como el robo de datos, el espionaje e incluso el ransomware.
- Fraude BEC con deepfakes: Los clips de audio y video deepfake se están utilizando para amplificar el fraude de tipo Business Email Compromise (BEC) en el que se engaña a los trabajadores financieros para que transfieran fondos corporativos a cuentas bajo el control del estafador. Se han documentado casos en los que vídeos y audios falsos han sido utilizados para suplantar a altos directivos y engañar a empleados, logrando transferencias fraudulentas millonarias.
- Evasión de autenticación: Los deepfakes también se utilizan para ayudar a los estafadores a hacerse pasar por clientes legítimos, suplantar a algunas personas y eludir las comprobaciones de autenticación para la creación de cuentas y los inicios de sesión. Herramientas maliciosas avanzadas como GoldPickaxe recopilan datos biométricos para crear deepfakes que permiten eludir controles de seguridad y abrir cuentas fraudulentas.
- Suplantación de identidad en redes sociales: Los ciberdelincuentes también están abusando de los deepfakes para hacerse pasar por directivos de grandes empresas y promover fraudes de inversión en las redes sociales.
- Descifrado de contraseñas con IA: Algoritmos como PassGAN pueden descifrar contraseñas en cuestión de segundos, facilitando el robo de datos, el ransomware y el fraude de identidad masivo.
- Fraude documental: La IA se está empleando para crear documentos falsos con el objetivo de superar controles de identidad en bancos, aseguradoras y otras instituciones. Casi todos (94%) los gestores de reclamaciones sospechan que al menos el 5% de las reclamaciones están siendo manipuladas con IA, especialmente las de menor valor.
- Phishing y reconocimiento avanzado: La IA también está potenciando ataques de phishing más sofisticados, permitiendo crear mensajes altamente personalizados y difíciles de detectar. Además, facilita el reconocimiento de objetivos mediante la recopilación y análisis de datos, aumentando el impacto del robo de credenciales, el ransomware y otros ciberataques.
Pérdidas millonarias y daño reputacional
El fraude impulsado por la inteligencia artificial está generando un impacto significativo en las empresas, tanto a nivel financiero como reputacional. Se estima que el 38% de los ingresos perdidos por fraude en el último año estuvieron relacionados con el uso malicioso de IA. “Entre las principales amenazas, la omisión de los controles de conocimiento del cliente (KYC) permite a los estafadores acumular crédito de manera fraudulenta y vaciar cuentas legítimas. Además, la infiltración de empleados falsos representa un riesgo grave para la seguridad corporativa, ya que facilita el robo de propiedad intelectual e información regulada, generando problemas de cumplimiento y posibles sanciones”, comenta Albors.
Por otro lado, ESET destaca que las estafas BEC potenciadas por deepfakes siguen alcanzado cifras alarmantes, con pérdidas superiores a los 2.900 millones de dólares en 2023. La compañía también destaca que la suplantación de identidad mediante IA también afecta directamente la confianza de los clientes, ya que muchos afirman que dejarían de consumir productos o servicios de una marca tras una mala experiencia de seguridad. “En este contexto, las empresas deben reforzar sus estrategias de ciberseguridad y prevención del fraude para mitigar los riesgos derivados del uso indebido de la IA”, añade el experto.
La entrada El 38% de las pérdidas por estafas ya están vinculadas a la IA es original de MuyPymes