Stage en amélioration d’un système de détection de deepfake audio par une approche adversariale
Contract type : Internship
Level of qualifications required : Master's or equivalent
Other valued qualifications : M2 en IA, mathématiques, mathématiques appliquée ou informatique ou équivalent, avec une forte motivation pour la recherche appliquée
Fonction : Internship Research
Context
Les avancées dans le domaine de l’IA ont entraîné la multiplication d’outils permettant de produire des « deepfakes » : le terme « deepfake » désigne la création de fausses images, vidéos, ou enregistrements audio à partir de techniques de deep learning. Dans le domaine de l’audio, la génération de deepfake a fortement progressé, notamment pour le clonage de voix. En effet, grâce à des outils libres ou commerciaux, il est désormais possible de créer un faux fichier audio réaliste à partir de quelques secondes d’enregistrement de la voix d’une personne. Une fois diffusés, ces deepfakes peuvent alors être utilisés de façon malveillante, par exemple dans le cadre de campagnes d’influence ou d’arnaques ciblées.
Par conséquent, la détection automatique de ces deepfakes est aujourd'hui un sujet de recherche très actif et de nombreux modèles ont été récemment proposés, montrant des performances de très bon niveau. Néanmoins, ces modèles peuvent rapidement devenir caduques en raison du développement permanent de nouvelles technologies de génération de deepfakes, ce qui demande des mises à jour régulières des modèles.
Ce cycle « nouvelle attaque – mise à jour » est classique, on le trouve par exemple dans le domaine des antivirus. Il est cependant mis en cause par l’arrivée d’attaques dites « adversariales », qui tirent partie des modèles de détection eux-mêmes pour générer des attaques encore plus réalistes.
Assignment
L’objectif principal du stage proposé est de mesurer l’impact potentiel des attaques adversariales dans le cadre de la détection des deepfakes audio. Un deuxième objectif sera d’améliorer la robustesse des modèles de détection de deepfakes audio à ces attaques adversariales.
Le travail sera décomposé en trois phases :
- Une analyse des différentes approches adversariales utilisées dans le cadre de la génération de deepfakes audio.
- Une analyse de l’impact des attaques sélectionnées dans le cadre de la détection automatique de deepfakes audio.
- La proposition de pistes d’amélioration des modèles de détection actuels, pour augmenter la robustesse à des attaques de type adversariales.
Le stage se déroulera au centre Inria Paris Sorbonne, rue Barrault, Paris 13, au sein d’un groupe de recherche spécialisé sur la parole et l’audio, composé d’une dizaine de chercheuses et chercheurs.
Ce stage est ouvert à des étudiantes étudiants de M2 en IA, mathématiques, mathématiques appliquée ou informatique ou équivalent, avec une forte motivation pour la recherche appliquée.
Skills
Compétences attendues :
- Programmation Python
- Pratique d’une librairie type Pytorch, Keras, Scikit-learn
- Connaissances pratiques en apprentissage automatique
- Maîtrise de l’anglais
- Des connaissances en traitement automatique de la parole et/ou en génération automatique de contenus multimédia constitueront un plus.
Benefits package
- Restauration subventionnée
- Transports publics remboursés partiellement
- Congés déterminés en fonction de la durée du stage
- Possibilité de télétravail (après 2 mois d'ancienneté)
- Équipements professionnels à disposition (visioconférence, prêts de matériels informatiques, etc.)
- Prestations sociales, culturelles et sportives (Association de gestion des œuvres sociales d'Inria)
- Accès à la formation professionnelle
General Information
- Town/city : Paris
- Inria Center : Siège
- Starting date : 2025-03-01
- Duration of contract : 6 months
- Deadline to apply : 2025-02-28
Warning : you must enter your e-mail address in order to save your application to Inria. Applications must be submitted online on the Inria website. Processing of applications sent from other channels is not guaranteed.
Instruction to apply
Defence Security :
This position is likely to be situated in a restricted area (ZRR), as defined in Decree No. 2011-1425 relating to the protection of national scientific and technical potential (PPST).Authorisation to enter an area is granted by the director of the unit, following a favourable Ministerial decision, as defined in the decree of 3 July 2012 relating to the PPST. An unfavourable Ministerial decision in respect of a position situated in a ZRR would result in the cancellation of the appointment.
Recruitment Policy :
As part of its diversity policy, all Inria positions are accessible to people with disabilities.
Contacts
- Inria Team : DIRECTION
-
Recruiter :
Arunraja Emilie / emilie.arunraja@inria.fr
About Inria
Inria is the French national research institute dedicated to digital science and technology. It employs 2,600 people. Its 200 agile project teams, generally run jointly with academic partners, include more than 3,500 scientists and engineers working to meet the challenges of digital technology, often at the interface with other disciplines. The Institute also employs numerous talents in over forty different professions. 900 research support staff contribute to the preparation and development of scientific and entrepreneurial projects that have a worldwide impact.