•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Des fraudes grands-parents propulsées par l’IA, vraiment?

Rien ne prouve que des arnaqueurs clonent des voix de petits-enfants à l’aide de l’intelligence artificielle afin de mieux berner leurs grands-parents.

Une femme âgée avec un air stressé parle au téléphone.

Dans l'arnaque grands-parents, les fraudeurs se font passer pour un proche d'un aîné et lui font croire qu'ils ont urgemment besoin d'argent.

Photo : Getty Images / TatyanaGl

Une supposée nouvelle version de l’« arnaque grands-parents », maintenant dopée à l’intelligence artificielle (IA), a fait couler beaucoup d’encre cette semaine au Québec, en plus d'avoir fait la manchette dans le reste du pays ainsi qu’aux États-Unis depuis l’an dernier.

Mais, malgré le battage médiatique, il n’existe toujours aucune preuve que les fraudeurs derrière le stratagème – qui fonctionne à merveille depuis plus de quinze ans au Canada (Nouvelle fenêtre) – ont recours à des hypertrucages ou à des transformateurs de voix pour duper leurs victimes.

Le modus operandi est le même depuis toujours : un fraudeur appelle un aîné et se fait passer pour un de ses proches, habituellement son petit-fils ou sa petite-fille, et lui dit qu’il a besoin d’argent.

Leur scénario est habituellement bien préparé et se déroule dans un contexte d’urgence, tel qu’un accident ou une arrestation, explique la porte-parole du Service de police de la ville de Montréal (SPVM), Caroline Labelle. Un second fraudeur peut être amené à jouer le rôle d’un avocat ou d’un policier afin de donner de la crédibilité au scénario.

La seule différence avec cette soi-disant nouvelle vague d’arnaques grands-parents est que la voix du proche serait reproduite par IA pour être plus crédible. C’est ce qui est décrit dans un récent article de La Presse (Nouvelle fenêtre), qui raconte qu’au moins cinq Québécois sont convaincus d’avoir été la cible ou le témoin d’une arnaque grand-parent employant l’hypertrucage audio.

Aucune preuve pour le moment

Le hic, c’est que personne ne détient de preuves concrètes que les arnaqueurs se servent de l’IA dans le cadre de ce stratagème, et tout indique qu’ils n’en ont pas du tout besoin pour réussir à dérober des milliers de dollars à leurs victimes.

Compte tenu du volume d'appels passés par les fraudeurs, il est peu probable que le clonage vocal soit couramment utilisé, a fait savoir le porte-parole du CAFC, Jeff Horncastle.

Aucune fraude de type grands-parents impliquant des voix créées par intelligence artificielle ne nous aurait été rapportée jusqu’ici, assure de son côté Caroline Labelle du SPVM.

La Régie intermunicipale de police Roussillon a récemment lancé sur sa page Facebook un avertissement (Nouvelle fenêtre) selon lequel les fraudes utilisant le clonage vocal étaient en hausse. Mais cet avis se basait uniquement sur les témoignages de plusieurs victimes convaincues que la voix était celle d’un proche, et non de véritables preuves.

On n’a pas de preuve dans nos dossiers, confirme leur porte-parole Karine Bergeron. Ce sont des gens qui nous ont dit que la voix était vraiment pareille à celle de leur petit-fils et que c’est de cette manière qu’ils les avaient reconnus.

La Sûreté du Québec (SQ) n’a pas répondu à nos demandes d’entrevue, mais sa porte-parole a affirmé à La Presse que l’IA n’est en cause dans aucun dossier de fraudes grands-parents.

Des victimes convaincues d’entendre leur proche… avant l’avènement de l’IA

Le recours à l’IA pour une telle arnaque est théoriquement possible : des gens publient des vidéos d’eux sur les réseaux sociaux, qui peuvent ensuite être échantillonnées et utilisées par des arnaqueurs, qui étudient ensuite les liens familiaux de la personne dont la voix est clonée grâce aux réseaux sociaux ou à d’autres données en source ouverte.

La nuance qu’apporte le Centre antifraude est toutefois très importante : ces fraudeurs fonctionnent au volume. Nombreuses – et majoritaires – sont les potentielles victimes qui leur raccrochent au nez. Est-ce qu’entreprendre une aussi importante opération de reproduction vocale en vaut réellement la peine?

Cela fait longtemps – bien avant que les outils d’IA soient accessibles au grand public – que les victimes de ce genre d’arnaque disent être convaincues que la voix à l’autre bout du fil est celle de leur proche.

Il suffit de lire de vieux articles sur le sujet, comme celui-ci, publié par le Journal de Montréal en 2014 (Nouvelle fenêtre), pour l’observer : Troublante constatation, la voix du premier arnaqueur était la même que le réel petit-fils de la victime, qu’il avait vu quelques jours plus tôt, peut-on y lire.

Il existe même des données à ce sujet. Un sondage effectué en 2018 par la police japonaise (Nouvelle fenêtre) auprès de 354 victimes de ce type d’arnaque a révélé que plus de 62 % d’entre elles avaient versé de l’argent aux fraudeurs parce que la voix ressemblait à celle de leur enfant ou de leur petit-enfant.

Il ne serait donc pas surprenant que les outils d’intelligence artificielle, dont les risques ont été largement médiatisés dans la dernière année, soient pointés du doigt comme manière de rationaliser le fait de s’être fait arnaquer.

Dans le cadre de ce même sondage, des victimes ont aussi rapporté (Nouvelle fenêtre) se sentir en état de choc en recevant l’appel, et que la pression d’agir rapidement a contribué à l’arnaque.

Au Japon, ce type de fraude est l’un des plus populaires au pays, année après année, depuis près de deux décennies (Nouvelle fenêtre), et continue de faire de nombreuses victimes malgré d’importantes campagnes de sensibilisation. Elle sert notamment à financer les yakuzas (Nouvelle fenêtre), soit le crime organisé.

C’est vraisemblablement aussi le cas ici : en octobre, la SQ a arrêté 13 Montréalais (Nouvelle fenêtre) présumément liés au crime organisé faisant partie d’un réseau de fraude qui arnaquait des aînés aux États-Unis avec ce stratagème. La fraude aurait rapporté au moins 10 millions de dollars, selon les informations de La Presse.

Rester vigilant

Il n’en demeure pas moins que l’IA propulse déjà de nombreuses fraudes et que les arnaques grands-parents sont plus communes que jamais au Canada : le Centre antifraude a recensé 1051 victimes de fraudes de type demande urgente d’argent en 2023, provoquant des pertes de plus de 11 millions de dollars pour les victimes. Les statistiques pour 2022 étaient semblables, mais elles avaient connu cette année-là un bond de presque trois fois du nombre de victimes et des quantités d’argent perdues en 2021.

Le Centre antifraude recommande de raccrocher et de communiquer directement avec le supposé membre de la famille qui entre en contact avec vous pour formuler une demande urgente d’argent.

Vous souhaitez signaler une erreur?Écrivez-nous (Nouvelle fenêtre)

Vous voulez signaler un événement dont vous êtes témoin?Écrivez-nous en toute confidentialité (Nouvelle fenêtre)

Vous aimeriez en savoir plus sur le travail de journaliste?Consultez nos normes et pratiques journalistiques (Nouvelle fenêtre)

Chargement en cours

Infolettre Info nationale

Nouvelles, analyses, reportages : deux fois par jour, recevez l’essentiel de l’actualité.

Formulaire pour s’abonner à l’infolettre Info nationale.