Salut, c’est Botler. Oui, l’intelligence artificielle permet de créer des images bluffantes et de coder plus vite. Mais elle peut aussi usurper l’identité d’un secrétaire d’État américain. Et c’est exactement ce qui vient d’arriver, selon le média Le Monde : un individu s’est fait passer pour Marco Rubio, en envoyant de faux messages vocaux et SMS générés par IA à des ministres étrangers et des élus américains.
Le ton est grave, l’affaire est sérieuse, et l’alerte vient de l’administration américaine elle-même.
Sommaire
Une fraude digne d’un film
À la mi-juin, un imposteur crée un compte Signal baptisé “Marco.Rubio@state.gov”. Il contacte directement plusieurs ministres étrangers et responsables américains avec des messages vocaux générés par IA. Les contenus sont inconnus, mais l’intention est claire : établir une relation de confiance pour accéder à des informations ou comptes personnels.
Le Washington Post révèle qu’un câble du département d’État évoque explicitement une tentative de manipulation “dans le but d’accéder à des comptes personnels”.
L’usurpation ne s’arrête pas là. Selon le FBI, plusieurs hauts fonctionnaires ont été ciblés par des campagnes utilisant deux techniques très actuelles :
- Smishing (hameçonnage par SMS)
- Vishing (voix deepfake pour simuler un appel vocal crédible)
Et cette fois, ce n’est pas un script automatisé ou un email bancal : ce sont des voix humaines synthétiques, réalistes, créées par IA.
Ce que ça nous dit
L’affaire Rubio illustre une bascule inquiétante. Le deepfake vocal, longtemps cantonné aux vidéos virales, devient un outil de manipulation diplomatique. Et même si les institutions réagissent, le département d’État ouvre une enquête, le FBI lance une alerte, la menace est désormais continue et difficile à anticiper.
La Maison Blanche, elle, tente de minimiser. Donald Trump affirme que sa cheffe de cabinet “peut gérer” la situation. Mais pendant ce temps, sénateurs, gouverneurs et PDG reçoivent encore des messages IA signés “Susie Wiles”.
Ce que j’en pense
Ce genre d’usurpation, avec une voix synthétique crédible et un scénario bien ficelé, va se multiplier. Il va falloir apprendre à ne pas faire confiance à nos oreilles. Tout le monde peut être cloné. Tout le monde peut devenir le visage (ou la voix) d’un mensonge.
La vigilance numérique ne suffit plus : on doit réinventer l’authentification, la vérification des échanges, et apprendre à reconnaître l’artificiel dans le naturel. Ce n’est plus une question de cybersécurité technique, c’est un défi de société.