Este es Martin Wolf, comentarista jefe del Financial Times… pero lo que ves no es real

Este es Martin Wolf, veterano comentarista económico jefe del Financial Times. Su análisis experto aparece habitualmente en vídeos legítimos del periódico. Pero en Instagram circulaba un vídeo donde parecía decir: “En este momento, estas tres acciones se encuentran en un punto de inflexión crítico y podrían experimentar ganancias significativas en los próximos dos meses”.

Era un deepfake. Un Martin Wolf convincente, pero manipulado digitalmente, que invitaba a unirse a un supuesto grupo exclusivo de WhatsApp para invertir. Un fraude más en la oleada de estafas basadas en inteligencia artificial generativa.

Los casos que ya han ocurrido

Martin Lewis, “la cara más estafada de Gran Bretaña”

Fundador de Money Saving Expert, su imagen fue clonada para promocionar un plan inexistente de bitcoins. Un británico perdió 76.000 libras al creer en el falso anuncio.

El fraude corporativo de Arup

En Hong Kong, estafadores clonaron en videollamada al director financiero de la firma de ingeniería Arup. Lograron persuadir a un empleado para autorizar 15 transferencias que sumaron 25 millones de dólares.

Taylor Swift, Elon Musk y otras celebridades

Han sido usados como carnada digital en anuncios falsos de dietas milagro, utensilios de cocina o criptomonedas. Su fama, explotada como garantía de credibilidad.

La amenaza en expansión

El problema ya no son solo los anuncios. Expertos en fraude advierten que los deepfakes se emplean cada vez más en videollamadas: un jefe que ordena un pago, un familiar que pide ayuda urgente, una pareja que solicita dinero.

Como señala el propio Wolf: “¿Cómo es posible que una empresa como Meta, con sus enormes recursos, no pueda identificar y desmantelar automáticamente este tipo de fraudes?”

La paradoja es brutal: mientras las plataformas amasan beneficios millonarios, la verificación sigue siendo incapaz de frenar la mentira digital.

La voz del Observatorio

En el Observatorio de Defensa Digital lo decimos claro: no basta con reconocer una cara o una voz para confiar. La IA ha hecho posible que la apariencia de la verdad sea indistinguible del engaño. Y el ciudadano queda solo si no aprende a cuestionar lo que ve.

Si hoy un deepfake puede hablar como Martin Wolf, mañana puede hacerlo como tu jefe… o como tu hijo. En el Observatorio te enseñamos a detectar la trampa antes de que sea demasiado tarde.