VerificAudio : comment l’intelligence artificielle traque les deepfakes audio

L’intelligence artificielle n’a pas seulement appris à parler comme nous. Elle sait désormais mentir comme nous. Avec l’essor des IA génératives vocales, un simple script suffit pour faire dire à n’importe qui n’importe quoi, avec une voix réaliste, des pauses naturelles, et une tonalité qui frôle le vrai. Les deepfakes audio ne relèvent plus de la science-fiction ; ils sont une réalité de plus en plus présente, et surtout, dangereuse. Dans un monde où l’information circule à la vitesse de la lumière, un simple faux message vocal peut suffire à manipuler une opinion publique, ruiner une réputation ou semer le doute dans un climat électoral.

C’est justement pour répondre à cette menace grandissante que PRISA Media, le groupe derrière El País, a développé un outil qui commence à faire parler de lui : VerificAudio, une IA conçue pour démanteler les mensonges… en écoutant.

VerificAudio, un duo d’IA contre les faux sons

Ce que VerificAudio apporte, c’est une approche en deux temps. D’abord, un modèle d’IA acoustique analyse les caractéristiques physiques du son : intonation, grain, modulation, fréquence, etc. Il traque les anomalies que même une oreille humaine attentive pourrait manquer. Ensuite, un deuxième modèle sémantique compare les extraits suspects avec une base de données d’enregistrements authentifiés. Le résultat : une capacité à repérer des enregistrements manipulés ou entièrement synthétiques avec une précision inédite.

Ce n’est pas qu’un concept brillant. C’est une innovation primée. En mai 2025, VerificAudio a remporté le prix du meilleur usage de l’intelligence artificielle aux INMA Global Media Awards, soulignant son potentiel concret dans la lutte contre la désinformation audio (PRISA Media, 2025).

L’audio, parent pauvre de la vérification jusqu’ici

Jusqu’à présent, la grande majorité des outils anti-désinformation se concentraient sur le texte et l’image. Or, l’audio touche à un autre niveau de crédibilité émotionnelle : on fait instinctivement plus confiance à une voix qu’à un tweet mal écrit. Et pourtant, les moyens pour vérifier un contenu sonore restaient artisanaux, manuels, voire inexistants.

Avec VerificAudio, El País et PRISA Media ouvrent une nouvelle voie. L’outil n’a pas vocation à remplacer l’intuition journalistique, mais à l’augmenter. Il apporte des preuves techniques dans un domaine jusque-là très subjectif, où le doute suffisait souvent à décrédibiliser l’authentique comme le faux.

Un enjeu démocratique, bien au-delà du journalisme

L’émergence des deepfakes vocaux pose une question qui dépasse largement le monde des médias : comment garantir la fiabilité d’un enregistrement dans un monde où tout peut être synthétisé ? On se souvient encore du cas du faux appel de Joe Biden incitant à ne pas voter, généré par IA et diffusé à la veille d’une élection primaire. Ce n’est qu’un exemple parmi d’autres, et le phénomène ne fera que s’amplifier (Swenson & Weissert, 2024).

Des solutions comme VerificAudio ne sont donc pas simplement des gadgets pour journalistes stressés. Ce sont des briques essentielles d’une infrastructure démocratique saine. Car si tout peut être imité, il devient urgent de développer des technologies capables de distinguer le vrai du synthétique. Et surtout, de le faire avec rigueur, méthode et transparence.

Ce que VerificAudio annonce pour demain

VerificAudio n’est qu’un début. Sa méthodologie (croiser analyse technique et comparaison contextuelle) pourrait s’appliquer demain à la vidéo, au texte, ou même à des contenus immersifs en réalité virtuelle. L’important, c’est le principe : ne plus se contenter de croire ce qu’on entend, mais le vérifier activement.

Et dans un monde où la technologie évolue plus vite que notre capacité à la réglementer, il est rassurant de voir que certaines rédactions ne se contentent pas de courir derrière l’IA, mais décident de s’en emparer pour la mettre au service du vrai. VerificAudio n’est pas une solution miracle. Mais c’est un premier pas crédible vers un journalisme augmenté, qui ne cède ni au cynisme technologique, ni à la panique morale.

PRISA Media. (2025, mai 23). VerificAudio de PRISA Media gana el INMA Global Media Awards 2025 al mejor uso de la inteligencia artificial. El País. https://elpais.com/comunicacion/2025-05-23/verificaudio-de-prisa-media-gana-el-inma-global-media-awards-2025-al-mejor-uso-de-la-inteligencia-artificial.html

Swenson, A. & Weissert, W. (2024, janvier 23). New Hampshire investigating fake Biden robocall meant to discourage voters ahead of primary. APnews. https://apnews.com/article/new-hampshire-primary-biden-ai-deepfake-robocall-f3469ceb6d-d613079092287994663db5#

Comments

No comments yet. Why don’t you start the discussion?

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *