Outils

Agenda de l'ENS de Lyon

Frugalité en données et efficacité computationnelle dans l'apprentissage profond

Date
mer 29 mai 2024
Horaires

14h30 - 17h30

Intervenant(s)

Soutenance de ZHENG Léon sous la codirection nationale de GRIBONVAL Rémi et PÉREZ Patrick

Organisateur(s)
Langue(s) des interventions
Description générale

Cette thèse s’intéresse à deux enjeux de frugalité et d’efficacité dans l’apprentissage profond moderne : frugalité en données et efficacité en ressources de calcul. 

Premièrement, nous étudions l’apprentissage auto-supervisé, une approche prometteuse en vision par ordinateur qui ne nécessite pas d’annotations des données. En particulier, nous proposons d’unifier plusieurs fonctions objectives auto-supervisées dans un cadre de noyaux invariants par rotation, ce qui ouvre des perspectives en termes de réduction de coût de calcul de ces fonctions objectives. 

Deuxièmement, étant donné que l’opération prédominante des réseaux de neurones profonds est la multiplication matricielle, nous nous penchons sur la construction d’algorithmes rapides qui permettent d’effectuer la multiplication matrice-vecteur avec une complexité presque linéaire. Plus spécifiquement, nous étudions le problème de factorisation creuse de matrices sous contrainte de parcimonie “butterfly”, une structure commune à plusieurs transformées rapides comme la transformée de Fourier discrète. 

La thèse établit des garanties théoriques sur l’algorithme de factorisation butterfly, et étudie le potentiel de la parcimonie butterfly pour la réduction des coûts des réseaux de neurones lors de leur phase d’apprentissage ou d’inférence. Nous explorons notamment l’efficacité des implémentations GPU de la multiplication matricielle avec parcimonie butterfly, dans le but d’accélérer réellement des réseaux de neurones parcimonieux.

Gratuit

Mots clés

Disciplines