Actualités

Comment les escrocs utilisent le clonage vocal par IA pour améliorer l’escroquerie aux grands-parents | CBC News

Comment les escrocs utilisent le clonage vocal par IA pour améliorer l'escroquerie aux grands-parents | CBC News
Simon Robben
Écrit par Simon Robben

2025-03-20 08:00:00
Les arnaques par téléphone visant les grands-parents prennent une nouvelle dimension grâce aux technologies avancées telles que le clonage de voix par intelligence artificielle. Ce phénomène alarmant, qui s’est intensifié ces dernières années, soulève des préoccupations majeures quant à la sécurité des personnes âgées, souvent ciblées pour leur gentillesse et leur vulnérabilité.

### L’escroquerie qui séduit les familles

Kevin Crawford se souvient d’un appel téléphonique troublant. Sa mère, Marilyn, a été contactée par un individu se faisant passer pour un agent de police, suivi rapidement d’une voix qu’elle croyait être celle de son petit-fils, Ian. Ce dernier aurait prétendument été arrêté pour vol de voiture et aurait besoin de 9 000 dollars pour être libéré. L’urgence et le désespoir émanant de la conversation ont convaincu Marilyn d’accepter de payer, croyant sincèrement qu’elle aidait son petit-fils.

Cette escroquerie, communément désignée sous le terme de “scam d’urgence” ou “escroquerie des grands-parents”, repose sur une manipulation émotionnelle efficace. Les arnaqueurs, en usant de tactiques comme l’instruction de ne pas en parler à d’autres, augmentent leur chance de succès. En 2024, les Canadiens ont signalé des pertes atteignant près de 3 millions de dollars à cause de cette arnaque, selon les données du Centre canadien antifraude.

### La montée des deepfakes

A lire aussi :  Le Japon se tourne vers l'IA pour préserver la culture des cerisiers en fleurs.

La technologie des deepfakes est aujourd’hui un outil redoutable dans le arsenal des escrocs. Un rapport de novembre 2024 émis par le Financial Crimes Enforcement Network des États-Unis alerte sur l’utilisation croissante de ces simulations vocales et vidéo pour imiter des proches ou des amis de confiance. Cela permet ainsi aux arnaqueurs de créer des situations d’urgence qui semblent authentiques, augmentant la probabilité que la cible agisse rapidement, sans prendre le temps de vérifier la véracité des faits.

Les experts, lors d’une conférence sur la fraude, ont discuté des effets désastreux que l’IA peut avoir dans de telles circonstances. Keith Elliott, enquêteur certifié, souligne que la facilité avec laquelle des informations personnelles peuvent être rassemblées à partir des réseaux sociaux renforce le pouvoir des arnaqueurs. Les vidéos personnelles, même anciennes, peuvent fournir les échantillons nécessaires pour reproduire une voix.

### Les dangers de l’excès d’informations

Les réseaux sociaux, qui étaient à l’origine censés favoriser la communication et le partage, fournissent aujourd’hui un terrain de jeu idéal pour les escrocs. Peter Warmka, ancien officier de la CIA, affirme que l’accès à des extraits vocaux est désormais plus facile que jamais. Selon lui, il suffit d’un échantillon vocal de quelques secondes pour que les fraudeurs puissent créer une imitation convaincante. Ce phénomène rappelle combien il est important de réfléchir aux informations que nous partageons en ligne.

A lire aussi :  Le Carson Center organise un "hackathon" sur l'IA le 5 avril - Nebraska Today

### Mesures de protection

Pour contrer cette évolution inquiétante des escroqueries, Warmka recommande d’établir un mot de passe ou une question secrète avec les membres de la famille et les amis. Cela permettrait de vérifier l’identité de la personne au bout du fil avant de donner suite à une demande monétaire. Dans le cas de Marilyn Crawford, elle n’était pas préparée à un tel appel. Heureusement, un agent de service à la clientèle, alerté par la transaction suspecte, a réussi à prévenir son fils avant qu’un transfert ne puisse avoir lieu.

Le sentiment de vulnérabilité éprouvé par les victimes lors de telles escroqueries est immense. Comme le souligne Kevin Crawford, le fait que des individus exploitent les plus fragiles de la société est profondément perturbant. Les pertes financières pour les personnes âgées peuvent compromettre leur qualité de vie, représentant non seulement de l’argent, mais des années d’efforts pour constituer leurs économies.

A propos de l'auteur

Simon Robben

Simon Robben

Simon Robben est un expert reconnu en intelligence artificielle et en transformation numérique. Auteur principal du site Actualité I.A, il partage son expertise à travers des articles clairs et accessibles, dédiés à l'actualité de l'intelligence artificielle. Avec plusieurs années d'expérience dans le domaine, Simon suit de près les dernières avancées technologiques et leurs impacts sur les entreprises et la société.