High Tech

AudioSeal de Meta, l’outil anti-Deepfake qui démasque les usurpations vocales

Pour contrer la prolifération croissante de fausses voix générées par l’intelligence artificielle à des fins malveillantes, une équipe de chercheurs de Kyutai, de l’Inria et de Meta a mis au point AudioSeal. Cet outil insère un filigrane perceptible dans l’audio afin de détecter si la parole est générée par une IA, permettant ainsi d’identifier le modèle responsable. Il offre une détection précise des segments générés par l’IA dans l’audio avec une résolution au niveau de l’échantillon.

Le processus d’AudioSeal implique l’entraînement conjoint d’un générateur intégrant un marqueur dans les segments audio et d’un détecteur repérant ces fragments, même après des éditions. Les chercheurs affirment que cet outil conserve la qualité du signal, résiste à diverses modifications sonores, et propose une API conviviale pour marquer et détecter ces marqueurs dans un échantillon audio.

AudioSeal, présenté comme la « première technique de marquage audio conçue spécifiquement pour la détection localisée de la parole générée par l’IA », s’avère particulièrement utile dans la lutte contre les deepfakes et les usurpations d’identité. Les chercheurs soulignent néanmoins que les marqueurs peuvent également être utilisés de manière malveillante, soulignant l’importance de la transparence et de la traçabilité dans l’utilisation de l’IA générative.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *