L’intelligence artificielle n’en finit plus de repousser les limites… y compris celles de l’arnaque. En mars 2025, Ferrari a été la cible d’une tentative d’escroquerie d’un nouveau genre, reposant sur des technologies de deepfake vocal. Un cadre supérieur de la célèbre marque italienne a bien failli tomber dans le piège… jusqu’à ce qu’il pose une simple question. Retour sur cette affaire digne d’un thriller technologique, et les leçons à en tirer.
Une arnaque bien huilée
Tout commence par des messages WhatsApp prétendument envoyés par le PDG de Ferrari, Benedetto Vigna. Le ton est confiant, professionnel, et la photo de profil semble authentique. L’expéditeur évoque une acquisition stratégique, parle de confidentialité, et invite son interlocuteur à se tenir prêt pour une opération urgente. Puis, il passe un appel.
À l’autre bout du fil, la voix de Vigna… ou presque. Accent, tonalité, discours : tout y est. L’imposteur explique qu’il utilise un nouveau numéro pour des raisons de sécurité et que la manœuvre concerne des enjeux sensibles liés à la Chine.
Mais une légère artificialité dans les intonations alerte le cadre. Pris de doute, il interrompt la conversation et demande calmement : « Quel était le titre du livre que tu m’as recommandé il y a quelques jours ? ». L’imposteur ne sait pas répondre. Il raccroche. Ferrari vient d’échapper à une arnaque qui aurait pu coûter cher.
Le danger bien réel du deepfake
Ferrari n’est pas un cas isolé. D’autres grandes entreprises, comme WPP ou une société basée à Hong Kong (arnaquée de 26 millions de dollars), ont également été victimes de manipulations par IA générative. Grâce à des voix ou vidéos ultra-réalistes, les escrocs peuvent se faire passer pour n’importe qui — PDG, directeur financier, avocat… et convaincre leurs cibles d’agir dans l’urgence.
Selon des experts en cybersécurité, ce n’est qu’un début. Ce n’est qu’une question de temps avant que ces outils ne deviennent incroyablement précis.
5 conseils pour se protéger face aux arnaques par deepfake :
- Vérifiez toujours l’identité par une question personnelle. Comme l’a montré l’affaire Ferrari, une question précise et personnelle est souvent imparable.
- Fiez-vous à votre intuition auditive. Une voix trop lisse ou légèrement robotique peut être un indice.
- Soyez attentif à tout changement de canal. Un appel d’un numéro inhabituel ou un message via une nouvelle plateforme doit vous alerter.
- Formez vos équipes. La sensibilisation aux menaces numériques est cruciale à tous les niveaux de l’entreprise.
- Mettez en place des procédures de validation. Aucune transaction ou action sensible ne doit être engagée sans vérification croisée (signature, mél officiel, appel vidéo sécurisé…).
Conclusion
L’affaire Ferrari nous rappelle que même les plus grandes entreprises ne sont pas à l’abri des nouvelles menaces numériques. Face aux deepfakes de plus en plus convaincants, la vigilance humaine reste l’arme la plus efficace. Et parfois, une simple question bien placée peut tout changer.
