La IA impulsa el aumento de las estafas de suplantación de CEO


La inteligencia artificial (IA) está transformando la vida cotidiana y los negocios, pero también abre la puerta a estafas digitales cada vez más sofisticadas. El último caso, ocurrido en Singapur, ha generado alarma internacional: un empleado de banca fue engañado mediante una videollamada en la que aparecían su CEO y varios compañeros de trabajo, todos ellos falsificados con deepfakes impulsados por IA. El resultado: una transferencia fraudulenta de cientos de millones de dólares.
Cómo fue la estafa con IA en Singapur
El caso comenzó con un correo electrónico supuestamente enviado por el CEO del banco, pidiendo a un trabajador que transfiriera fondos a una cuenta extranjera. Ante la sospecha, el empleado pidió una reunión presencial. La respuesta fue que el CEO estaba fuera de la oficina, pero ofreció organizar una videollamada con varios empleados para aclarar la situación.
En apenas 15 minutos, el trabajador recibió la invitación. Al conectarse, vio a su jefe y compañeros de confianza explicándole con detalle cómo realizar la transferencia. Después de más de 20 minutos de conversación, decidió ejecutar la orden.
Horas después, saltaron las alarmas: la operación había sido fraudulenta. Los supuestos asistentes a la videollamada no eran personas reales, sino avatares creados con inteligencia artificial, capaces de imitar gestos, voces y expresiones faciales.
Deepfakes y la nueva frontera del fraude digital
Este caso en Singapur marca un antes y un después. La IA ya no solo se usa para generar textos o imágenes, sino para crear clones digitales casi indistinguibles de personas reales en tiempo real.
Lo preocupante es que:
Los bots de IA suplantaron a personas que el empleado conocía personalmente.
La videollamada duró más de 20 minutos sin levantar sospechas.
La confianza natural en la interacción visual se convirtió en la trampa perfecta.
Se confirma así que la estafa digital con IA está entrando en una fase mucho más peligrosa: la de falsificación total de entornos sociales y laborales.
Qué significa este caso para la seguridad digital
Confianza visual rota: ya no basta con “ver para creer”. Una videollamada no garantiza la autenticidad de la persona al otro lado.
Ciberdelincuentes más sofisticados: el uso de deepfakes en tiempo real convierte cada interacción digital en un posible riesgo.
Empresas en alerta: bancos y grandes compañías deben reforzar sus protocolos de verificación, con dobles factores de seguridad y procedimientos que no dependan de una simple llamada o vídeo.
El futuro: distinguir entre realidad y simulacro
Si pensábamos que aún estábamos en los inicios de la era de la IA, este fraude demuestra lo contrario.
La posibilidad de suplantar identidades en directo, con apariencia convincente y respaldada por bots que simulan conversaciones fluidas, nos lleva a un escenario donde será casi imposible diferenciar entre lo real y lo fabricado por una máquina.
La lección es clara: la inteligencia artificial no solo multiplica posibilidades, también multiplica riesgos. Y la sociedad aún no está preparada para enfrentarse a un entorno donde lo falso y lo auténtico se confunden en cuestión de segundos.
Esta noticia ha sido adaptada y comentada por el Observatorio de Defensa Digital.
Observatorio de Defensa Digital
Protección del ciudadano frente a los abusos digitales.
Redes
© 2025. All rights reserved.
Mantente informado
Recibe las novedades del Observatorio directamente en tu correo.