Sécurité des angles morts du Machine Learning: modéliser et sécuriser le cycle de vie des systèmes complexes dapos;IA

  • Cybersécurité : hardware et software,
  • Doctorat
  • CEA-Leti
  • Grenoble
  • BAC+8
  • 2024-11-01
  • MOELLIC Pierre-Alain (DRT/DSYS//LSES)
Candidater

Dans le contexte actuel de régulation de lapos;Intelligence Artificielle, plusieurs recommandations ont été proposées pour renforcer la quot;cyber-sécurité de lapos;IAquot; et plus particulièrement pour améliorer la sécurité des systèmes basés sur lapos;IA et pas uniquement les quot;modèlesquot;. Cette sécurité au niveau quot;systèmequot; est primordiale alors que nous connaissons un déploiement des modèles à très large échelle sur une grande variété de plateformes logicielles et matérielles. Néanmoins, considérer la sécurité du cycle de vie dapos;un système dapos;IA est beaucoup plus complexe que dans le cadre classique mais limité du quot;ML pipelinequot; traditionnel composé dapos;une phase statique dapos;apprentissage puis dapos;inférence. Dans ce contexte, la communauté de la sécurité de lapos;IA doit se concentrer sur des opérations critiques mais trop faiblement étudiées qui sont de réels quot;angles mortsquot; (blind spots) de sécurité. Cet objectif repose sur une modélisation fine de lapos;ensemble des composants et processus dapos;un système dapos;IA, par exemple avec un modèle de type MLOps (Machine Learning Operations) qui permet de définir et caractériser les différentes étapes, modules et interactions dapos;un système dapos;IA, notamment sa dynamique avec les mises à jour régulières des données et des modèles. La thèse pourra se concentrer sur deux angles morts : le déploiement de modèles et la dynamique du quot;Continuous Trainingquot;. Des travaux récents ont démontré des problèmes de sécurité critiques liés à des attaques backdoor de modèle (empoisonnement) après lapos;apprentissage par le remplacement de sous réseau dapos;un réseau de neurones profond. Dapos;autres travaux ont montré que les phases de compression de modèles (quantification, pruning) pouvaient aussi être utilisées pour empoisonner un modèle. Enfin, la dynamique des systèmes dapos;IA avec la mise à jour régulière des données dapos;apprentissage et des modèles soulève de nombreuses questions quant à de possibles régressions de leur sécurité et la robustesse des modèles lors dapos;ajout de données ou dapos;opérations de quot;fine-tuningquot;. Les objectifs de la thèse seront: 1. modéliser la sécurité de systèmes modernes dapos;IA en utilisant un Framework MLOps et proposer des modèles de menaces et des analyses de risques pour des opérations critiques comme le déploiement de modèle et le Continuous Training. 2. démontrer et caractériser des attaques comme celles visant des méthodes dapos;optimisation de modèles, du fine tuning... 3. proposer et développer des protections ainsi que des protocoles dapos;évaluation robustes.

Intelligence Artificielle, Sécurité

fr_FRFR

Contact us

We will reply as soon as possible...