 |
Jean-Pierre Dussault
Professeur retraité
Professeur associé au département d'informatique
Université de Sherbrooke
Département d'informatique
2500, boul. Université
Sherbrooke (Québec, CANADA) J1K 2R1
Télécopieur: (819) 821-8200
|
Notez que je n'accepte plus de nouvelle personne étudiante à la
maîtrise ou au doctorat.
Recherche
Mon programme de recherche s'articule autour
de l'étude d'algorithmes d'optimisation mathématique continue. Mes
travaux actuels portent sur la robustesse, fiabilité et efficacité
des algorithmes, en particulier pour des problèmes comportant
diverses formes de dégénérescence. Je suis activement impliqué
dans des projets d'applications en reconstruction tomographique et
en apprentissage machine, sources de motivation pour l'étude de
modèles de tailles énormes. L'acquisition comprimée et
l'optimisation éparse sont également apparentées à ces
applications.
L'objectif général de mon programme de recherche vise à une
meilleure compréhension et l'amélioration d'algorithmes
d'optimisation et se regroupe en quelques thèmes. Les méthodes de
second ordre (Newton) étant prises comme référence, deux objectifs
sont d'exploiter des variantes d'ordre supérieur et d'utiliser des
méthodes d'ordre un dans les algorithmes de poursuite de
trajectoires. Pour les problèmes de taille énorme, des algorithmes
plus simples sont souvent privilégiés.
Donc, une bonne partie de mes préoccupations sont d'ordre
théorique et visent l'avancement des connaissances sur les
algorithmes d'optimisation non-linéaire continue. Néanmoins, une
source constante de motivation provient des applications. Il
subsiste toutefois un écart considérable entre les besoins
appliqués et la théorie des algorithmes. Par exemple, dans
l'entrainement de réseaux de neurones profonds, on utilise de
manière routinière des variantes de l'algorithme de gradient
incrémental ou de l'algorithme de descente de gradient
stochastique. On tente également d'accélérer les calculs en
regroupant les données en minilots. Or, la théorie mathématique
de ces algorithme est très peu développée pour de tels problèmes
non convexes. De plus, les applications utilisent souvent des
variantes algorithmique connues pour ne pas converger vers la
véritable solution optimale. Malheureusement, les variantes que
l'on peut valider mathématiquement ne sont pas forcément aussi
efficaces.
Tout en poursuivant l'avancement des connaissances, je me
préoccupe donc également de combler l'écart entre la pratique et
la théorie. J'ai confiance que les retombées de mes travaux auront
un impact sur les applications notamment dans les problèmes
d'imagerie et dans les problèmes d'apprentissage automatique.
Enseignement
Notes de cours d'optimisation
Cours optimisation Rennes automne 2015
ROP771 H 2017
ROP630 E 2017
ROP831 H 2018