• Votre panier est vide.

  • COMPTE

Les deepfakes vocaux générés par l’IA ne sont pas encore effrayants


Certains articles de veille peuvent faire l'objet de traduction automatique.


Hassold dit que sa grand-mère a été victime d’une escroquerie d’usurpation d’identité au milieu des années 2000 lorsque des attaquants l’ont appelé et se sont fait passer pour lui, la persuadant de leur envoyer 1 500 $.

«Avec ma grand-mère, l’escroc n’a pas dit qui appelait au départ, ils ont juste commencé à parler de la façon dont ils avaient été arrêtés alors qu’ils assistaient à un festival de musique au Canada et avaient besoin qu’elle envoie de l’argent pour une caution. Sa réponse a été ‘Crane, c’est toi ?’ et puis ils avaient exactement ce dont ils avaient besoin », dit-il. « Les escrocs incitent essentiellement leurs victimes à croire ce qu’ils veulent qu’ils croient. »

Comme pour de nombreuses escroqueries par ingénierie sociale, les escroqueries à l’usurpation d’identité fonctionnent mieux lorsque la cible est prise dans un sentiment d’urgence et essaie simplement d’aider quelqu’un ou d’accomplir une tâche qu’elle estime être sa responsabilité.

« Ma grand-mère m’a laissé un message vocal pendant que je conduisais pour me rendre au travail en disant quelque chose comme » J’espère que tu vas bien. Ne vous inquiétez pas, j’ai envoyé l’argent, et je ne le dirai à personne », dit Hassold.

Justin Hutchens, directeur de la recherche et du développement de la société de cybersécurité Set Solutions, dit qu’il considère les escroqueries vocales profondes comme une préoccupation croissante, mais il s’inquiète également d’un avenir dans lequel les escroqueries basées sur l’IA deviendront encore plus automatisées.

« Je m’attends à ce que dans un avenir proche, nous commencions à voir des acteurs de la menace combiner la technologie vocale deepfake avec les interactions conversationnelles prises en charge par de grands modèles de langage », a déclaré Hutchens à propos de plates-formes comme ChatGPT d’Open AI.

Pour l’instant, cependant, Hassold met en garde contre le fait d’être trop rapide pour supposer que les escroqueries par imitation de voix sont motivées par des deepfakes. Après tout, la version analogique de l’arnaque est toujours là et toujours convaincante pour la bonne cible au bon moment.

Voir aussi :

mars 17, 2023

Poster un commentaire

Please Login to comment

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Culte du code | 2015-2022  (Vecteurs par Freepik, Parallax par fullvector)