2025-03-20 08:00:00
Les arnaques par téléphone visant les grands-parents prennent une nouvelle dimension grâce aux technologies avancées telles que le clonage de voix par intelligence artificielle. Ce phénomène alarmant, qui s’est intensifié ces dernières années, soulève des préoccupations majeures quant à la sécurité des personnes âgées, souvent ciblées pour leur gentillesse et leur vulnérabilité.
### L’escroquerie qui séduit les familles
Kevin Crawford se souvient d’un appel téléphonique troublant. Sa mère, Marilyn, a été contactée par un individu se faisant passer pour un agent de police, suivi rapidement d’une voix qu’elle croyait être celle de son petit-fils, Ian. Ce dernier aurait prétendument été arrêté pour vol de voiture et aurait besoin de 9 000 dollars pour être libéré. L’urgence et le désespoir émanant de la conversation ont convaincu Marilyn d’accepter de payer, croyant sincèrement qu’elle aidait son petit-fils.
Cette escroquerie, communément désignée sous le terme de “scam d’urgence” ou “escroquerie des grands-parents”, repose sur une manipulation émotionnelle efficace. Les arnaqueurs, en usant de tactiques comme l’instruction de ne pas en parler à d’autres, augmentent leur chance de succès. En 2024, les Canadiens ont signalé des pertes atteignant près de 3 millions de dollars à cause de cette arnaque, selon les données du Centre canadien antifraude.
### La montée des deepfakes
La technologie des deepfakes est aujourd’hui un outil redoutable dans le arsenal des escrocs. Un rapport de novembre 2024 émis par le Financial Crimes Enforcement Network des États-Unis alerte sur l’utilisation croissante de ces simulations vocales et vidéo pour imiter des proches ou des amis de confiance. Cela permet ainsi aux arnaqueurs de créer des situations d’urgence qui semblent authentiques, augmentant la probabilité que la cible agisse rapidement, sans prendre le temps de vérifier la véracité des faits.
Les experts, lors d’une conférence sur la fraude, ont discuté des effets désastreux que l’IA peut avoir dans de telles circonstances. Keith Elliott, enquêteur certifié, souligne que la facilité avec laquelle des informations personnelles peuvent être rassemblées à partir des réseaux sociaux renforce le pouvoir des arnaqueurs. Les vidéos personnelles, même anciennes, peuvent fournir les échantillons nécessaires pour reproduire une voix.
### Les dangers de l’excès d’informations
Les réseaux sociaux, qui étaient à l’origine censés favoriser la communication et le partage, fournissent aujourd’hui un terrain de jeu idéal pour les escrocs. Peter Warmka, ancien officier de la CIA, affirme que l’accès à des extraits vocaux est désormais plus facile que jamais. Selon lui, il suffit d’un échantillon vocal de quelques secondes pour que les fraudeurs puissent créer une imitation convaincante. Ce phénomène rappelle combien il est important de réfléchir aux informations que nous partageons en ligne.
### Mesures de protection
Pour contrer cette évolution inquiétante des escroqueries, Warmka recommande d’établir un mot de passe ou une question secrète avec les membres de la famille et les amis. Cela permettrait de vérifier l’identité de la personne au bout du fil avant de donner suite à une demande monétaire. Dans le cas de Marilyn Crawford, elle n’était pas préparée à un tel appel. Heureusement, un agent de service à la clientèle, alerté par la transaction suspecte, a réussi à prévenir son fils avant qu’un transfert ne puisse avoir lieu.
Le sentiment de vulnérabilité éprouvé par les victimes lors de telles escroqueries est immense. Comme le souligne Kevin Crawford, le fait que des individus exploitent les plus fragiles de la société est profondément perturbant. Les pertes financières pour les personnes âgées peuvent compromettre leur qualité de vie, représentant non seulement de l’argent, mais des années d’efforts pour constituer leurs économies.
