Thèse

Security-by-design pour les modèles de réseaux de neurones embarqués sur plateformes RISC-V

Dans un contexte de régulation de l'Intelligence Artificielle à l'échelle européenne (AI Act), de nombreuses recommandations concernent la « cybersecurité de l’IA ». Parmi les concepts les plus importants liés à la sécurité des modèles de Machine de Learning et des systèmes basés sur l'IA, la "security-by-design" est le plus souvent associé au renforcement des modèles dès l'apprentissage (e.g., adversarial training contre les menaces par évasion ou le differential privacy pour les attaques contre la confidentialité). Cette thèse vise à couvrir un spectre plus large du "security-by-design" en étudiant les mécanismes logiciels (SW) et électroniques (HW) que l'on peut mettre en œuvre pour renforcer la robustesse intrinsèque des systèmes d'IA embarqués sur plateformes RISC-V. Les objectifs sont (1) de définir et modéliser les vulnérabilités SW et HW propres aux modèles embarqués, (2) développer et évaluer des protections et (3) démontrer l’impact des protections SW, HW et leurs combinaisons sur des attaques de l’état de l’art comme les "weight-based adversarial attacks", "model extraction".

fr_FRFR

Contact us

We will reply as soon as possible...