Les escrocs utilisent les voix de l’IA pour voler des millions en se faisant passer pour des êtres chers

HUAWEI P40 Pro Parler au téléphone

TL; DR

  • Le logiciel générateur de voix AI permet aux escrocs d’imiter la voix de leurs proches.
  • Ces imitations ont fait en sorte que des personnes ont été escroquées de 11 millions de dollars par téléphone en 2022.
  • Les personnes âgées constituent la majorité des personnes ciblées.

L’intelligence artificielle est un sujet brûlant dans le monde de la technologie depuis un certain temps maintenant, Microsoft continuant à équiper ses produits de ChatGPT et Google essayant de suivre le rythme en proposant ses propres produits d’intelligence artificielle. Alors que l’IA a tendance à faire des choses vraiment impressionnantes, comme créer des images basées sur une seule ligne de texte, nous commençons à voir davantage les inconvénients à peine contrôlés de la technologie. Le dernier exemple en date est celui des générateurs de voix à intelligence artificielle qui sont utilisés pour escroquer les gens avec leur argent.

Les logiciels de synthèse vocale IA ont fait la une des journaux ces derniers temps, principalement pour avoir volé la voix des acteurs de la voix. Au départ, il suffisait de quelques phrases au logiciel pour reproduire de manière convaincante le son et la tonalité de l’enceinte. La technologie a depuis évolué au point où quelques secondes de conversation suffisent pour imiter fidèlement quelqu’un.

Dans un nouveau rapport de Poste de Washington, des milliers de victimes affirment avoir été dupées par des fraudeurs se faisant passer pour des êtres chers. Les escroqueries seraient devenues la deuxième forme de fraude la plus populaire en Amérique avec plus de 36 000 cas déposés en 2022. Sur ces 36 000 cas, plus de 5 000 victimes ont été escroquées par téléphone, totalisant 11 millions de dollars de pertes selon les responsables de la FTC.

Une histoire qui s’est démarquée concerne un couple de personnes âgées qui a envoyé plus de 15 000 $ via un terminal bitcoin à un escroc après avoir pensé avoir parlé à leur fils. Une voix d’IA avait convaincu le couple que leur fils avait des ennuis judiciaires après avoir tué un diplomate américain dans un accident de voiture.

Comme pour les victimes de l’histoire, ces attaques semblent viser principalement les personnes âgées. Ce n’est pas surprenant car les personnes âgées sont parmi les plus vulnérables face à la fraude financière. Malheureusement, les tribunaux n’ont pas encore décidé si les entreprises peuvent être tenues responsables des dommages causés par les générateurs de voix IA ou d’autres types de technologie IA.

Source link