PostDoc: Co-design strategy (SW/HW) to enable a structured spatio-temporal sparsity for Transformer NN

  • Artificial Intelligence & data intelligence,
  • Fixed term contract
  • 36
  • CEA-List
  • Paris – Saclay
  • Level 8
  • 2024-05-06
Apply

Sujet PostDoc en Intelligence Artificielle pour les systèmes embarqués Stratégie de co-conception pour l'exploitation de la sparsité spatio-temporelle dans les réseaux de neurones Transformer à l'inférence et à l'apprentissage L'objectif du PostDoc est d'identifier, d'analyser et d'évaluer les mécanismes de modulation de la sparsité spatio-temporel des fonctions d'activation afin de minimiser la charge de calcul du modèle NN de transformateur (apprentissage/inférence). Une approche combinée avec la quantification extrême sera également envisagée. L'objectif est d'affiner conjointement une stratégie innovante pour évaluer les impacts et les gains potentiels de ces mécanismes sur l'exécution du modèle sous contraintes matérielles. En particulier, cette co-conception devrait également permettre de qualifier et d'exploiter une boucle de rétroaction bidirectionnelle entre un réseau neuronal ciblé et une instanciation matérielle afin d'obtenir le meilleur compromis (compacité/latence). (see Attached file for English version)

Au sein du CEA List, le Laboratoire Intelligence Artificielle Embarquée (LIAE) a pour mission le développement de solutions innovantes pour l'IA embarquée. Il s'agit d'une équipe pluridisciplinaire spécialisée dans l'adéquation algorithme architecture pour l'IA, dont les compétences transverses s'étendent de la maîtrise des applications et algorithmes à leur implémentation embarquée efficace: adaptation algorithmique, conception d'architectures matérielles optimisées et portage sur composants matériels développés au sein même du laboratoire (accélérateurs spécialisés pour ASIC ou FPGA) ou issu

Vous êtes titulaire d’un doctorat en IA pour systèmes embarqués avec une expérience en conception de réseau de neurones optimisé ciblant des composants numériques (GPU/FPGA/Asic) avec des contraintes de latence/consommation. Vous êtes curieux et appréciez le travail en équipe tout en faisant preuve d’une bonne autonomie. Intéressé(e) par les problématiques de conception d’inférence de modèle IA et connaissant l’architecture des réseaux Transformers, vous appréhendez parfaitement les techniques de compression de modèle, leur mise en œuvre à l’apprentissage et en partie leur impact sur l’inférence résultante. Vous avez acquis les compétences techniques suivantes : * Une connaissance des modèles attentionnels (Transformer) pour la vision par ordinateur ; * Une bonne maîtrise de la conception et/ou déploiement de réseau de neurone mettant en œuvre une ou des techniques dédiées à la compression de modèle (Quantification, Pruning…) ainsi que leur évaluation pour l’inférence. Expérience et/ou compétences complémentaires souhaitées * Maîtrise des environnements virtuels (conda, virtualenv…), de librairies de conception de modèles (TensorFlow, PyTorch,Onnx…) ;   * Maîtrise de langages script, de programmation (Python, C/C++) et d’outil de gestion de version (Git) ; * Une connaissance de la problématique de l’adéquation algorithme architecture et des notions sur les architectures matérielles ciblant le domaine embarqué seraient appréciées.

en_USEN

Contact us

We will reply as soon as possible...