Votre mère vous appelle en pleurs, elle a eu un accident et a besoin d'argent immédiatement. La voix est parfaitement reconnaissable. Mais ce n'est pas elle : c'est une IA qui a cloné sa voix.
C'est quoi un deepfake vocal ?
Un deepfake vocal est une voix synthétique créée par intelligence artificielle qui reproduit parfaitement la voix d'une personne réelle. En 2025, il suffit de 3 secondes d'audio (une vidéo TikTok, un message vocal WhatsApp) pour cloner une voix.
TECHNOLOGIE ACCESSIBLE À TOUS
Les outils de clonage vocal sont désormais gratuits et accessibles en ligne. N'importe qui peut créer un deepfake vocal convaincant en quelques minutes, sans compétences techniques.
Comment fonctionne cette arnaque ?
Le scénario classique
- Collecte : L'escroc récupère un échantillon audio de sa cible (réseaux sociaux, messagerie vocale, vidéos publiques)
- Clonage : Une IA reproduit la voix en quelques secondes
- Appel : L'escroc appelle la victime avec la voix clonée
- Urgence : "Maman, j'ai eu un accident, j'ai besoin de 5000€ tout de suite"
- Pression : "Ne dis rien à papa, envoie l'argent sur ce compte"
- Vol : La victime transfère l'argent, croyant aider son proche
Les variantes les plus courantes
| Scénario | Victime cible | Montant moyen | |----------|---------------|---------------| | Faux enfant en détresse | Parents/grands-parents | 2 000 - 10 000€ | | Faux patron urgent | Employés/comptables | 10 000 - 500 000€ | | Faux ami hospitalisé | Proches | 500 - 5 000€ | | Faux avocat/police | Famille | 1 000 - 20 000€ |
L'arnaque "au président" version IA
Cette fraude cible les entreprises. Le scénario :
FRAUDE AU PRÉSIDENT 2.0
"Bonjour Marie, c'est Jean-Pierre le PDG. Je suis en réunion confidentielle, j'ai besoin que vous fassiez un virement urgent de 45 000€ pour finaliser une acquisition. C'est confidentiel, n'en parlez à personne."
La voix est parfaite. Le numéro semble correct. Le comptable exécute le virement. En réalité, c'était un deepfake.
En 2024, une entreprise de Hong Kong a perdu 25 millions de dollars après une visioconférence où TOUS les participants étaient des deepfakes IA, y compris le directeur financier.
Comment détecter un deepfake vocal ?
Indices techniques
- Qualité audio : Son parfois légèrement métallique ou robotique
- Latence : Léger décalage dans les réponses
- Respiration : Absence de respirations naturelles
- Intonation : Émotions parfois "plates" ou exagérées
- Bruits de fond : Incohérents ou absents
Indices comportementaux
- Urgence extrême : "Il faut agir maintenant"
- Secret : "N'en parle à personne"
- Changement de canal : Refuse d'utiliser un autre moyen de contact
- Demande inhabituelle : Virement, carte cadeau, crypto
- Incohérences : Détails qui ne correspondent pas
Comment se protéger ?
La règle d'or : VÉRIFIER
PROTOCOLE DE VÉRIFICATION
- Raccrochez immédiatement
- Rappelez sur le vrai numéro de la personne
- Posez une question personnelle que seul votre proche connaît
- Ne transférez JAMAIS d'argent sur un appel entrant
Créez un mot de passe familial
Établissez un mot ou phrase secrète avec vos proches, connu uniquement de votre famille. En cas d'appel urgent, demandez ce mot.
Exemple : "Quel était le nom de notre premier chien ?" ou un code comme "Framboise" que vous devez prononcer pour prouver votre identité.
Pour les entreprises
- Double validation obligatoire pour tout virement important
- Rappel systématique sur le numéro officiel
- Formation des employés aux deepfakes
- Procédures écrites pour les demandes urgentes
Que faire si vous êtes victime ?
Dans l'immédiat
- Contactez votre banque pour bloquer le virement
- Appelez la vraie personne pour confirmer l'arnaque
- Conservez les preuves (historique d'appels, messages)
- Ne culpabilisez pas : ces arnaques sont extrêmement sophistiquées
Actions légales
| Action | Contact | |--------|---------| | Porter plainte | Commissariat ou gendarmerie | | Signaler en ligne | pre-plainte-en-ligne.gouv.fr | | Aide aux victimes | cybermalveillance.gouv.fr | | Info Escroqueries | 0 805 805 817 (gratuit) |
L'IA au service des arnaques : ce qui arrive
Les deepfakes vidéo en temps réel
En 2025, les escrocs commencent à utiliser des deepfakes vidéo en direct pour des appels visio. Votre "patron" ou "proche" apparaît en vidéo, mais c'est une IA.
Les agents vocaux autonomes
Des IA capables de mener une conversation complète, répondre aux questions, improviser. Plus besoin d'humain derrière l'appel.
La personnalisation de masse
Grâce aux données volées, les escrocs créent des scénarios ultra-personnalisés : ils connaissent vos proches, vos habitudes, vos derniers achats.
Comment protéger votre voix
- Limitez les vidéos/audios publics sur les réseaux sociaux
- Paramétrez vos comptes en privé
- Évitez les messages vocaux sur les répondeurs
- Méfiez-vous des appels demandant de "confirmer votre identité vocalement"
Les outils de détection
Plusieurs solutions émergent pour détecter les deepfakes :
- Détecteurs IA intégrés aux téléphones (en développement)
- Authentification vocale multi-facteurs
- Analyse spectrale du son
Mais pour l'instant, la meilleure protection reste la vérification humaine : raccrochez et rappelez.
À RETENIR
Si quelqu'un vous demande de l'argent par téléphone, même avec la voix parfaite de votre proche, raccrochez et rappelez sur le vrai numéro. L'IA peut cloner n'importe quelle voix, mais elle ne peut pas intercepter votre appel sortant.