Publicité

Infos

Imiter notre voix pour nous pirater ? L’IA parvient à franchir la dernière frontière

Est-ce que Joe Biden a téléphoné les électeurs ?

Imiter notre voix pour nous pirater ? L’IA parvient à franchir la dernière frontière
Chema Carvajal Sarabia

Chema Carvajal Sarabia

  • Mise à jour:

Le monde de l’intelligence artificielle ouvre autant de possibilités que de menaces. Et bien que ChatGPT puisse vous faire un résumé de Madame Bovary, un autre outil peut se faire passer pour le Président du pays le plus puissant du monde.

ChatGPT TÉLÉCHARGER

Aux États-Unis, dans le cadre d’une tactique de désinformation en vue des élections présidentielles de fin d’année, quelqu’un a envoyé des appels automatiques se faisant passer pour le président Joe Biden.

Cela sonnait comme si Biden disait aux gens de ne pas voter lors des primaires, mais cela aurait pu être de l’IA. Mais personne, même les vendeurs de logiciels de détection de contrefaçons, ne parvient à se mettre d’accord.

La tentative de fraude électoral pose un autre type de défi

Un article de Bloomberg cette semaine a examiné ce qui aurait pu être la première fausse audio deepfake contre Joe Biden. Mais personne ne sait s’il s’agissait d’un acteur l’imitant ou d’une IA.

Citant deux autres fabricants de détecteurs, ElevenLabs et Clarity, Bloomberg n’a pu trouver aucune certitude.

Le logiciel d’ElevenLabs a jugé improbable que l’attaque soit le résultat d’une fraude biométrique. Cependant, Clarity a apparemment conclu qu’il était probable qu’il s’agisse d’un deepfake à 80%.

Une équipe d’étudiants et d’anciens élèves de l’Université de Californie – Berkeley affirme avoir développé une méthode de détection qui fonctionne avec très peu d’erreurs.

Bien sûr, cela se fait dans un environnement de laboratoire et l’équipe de recherche estime que la méthode nécessitera un « contexte approprié » pour être comprise.

ChatGPT TÉLÉCHARGER

L’équipe a donné à un modèle d’apprentissage profond audio brut pour traiter et extraire des représentations multidimensionnelles. Le modèle utilise ces représentations pour distinguer le réel du faux. Mais il reste encore à l’utiliser dans le monde réel. Il faudra voir ce que dit son test avec l’audio de Biden.

Chema Carvajal Sarabia

Chema Carvajal Sarabia

Journaliste spécialisé dans la technologie, le divertissement et les jeux vidéo. Écrire sur ce qui me passionne (gadgets, jeux et films) me permet de rester sain d'esprit et de me réveiller avec le sourire aux lèvres quand le réveil sonne. PS : cela n'est pas vrai 100 % du temps.

Nouveautés de Chema Carvajal Sarabia

Directives éditoriales