Email : croyer2(at)wisc.edu
Mon CV se trouve ici.
For an English version of this page, click here.

Contact

Clément Royer
Wisconsin Institute for Discovery
330 N Orchard St
Madison, WI 53715
USA

Clément W. Royer

Bienvenue sur ma page. Vous y trouverez quelques informations sur moi, ma recherche et mes activités d'enseignement. Elle vous permet aussi d'accéder à mes différentes publications, aux implémentations que j'ai pu réaliser ainsi qu'aux présentations que j'ai pu donner.
En vous souhaitant une bonne visite !

Dernière mise à jour (30 Octobre 2017)

J'ai participé au workshop BIRS-CMO intitulé Beyond Convexity: Emerging Challenges in Data Science, qui s'est déroulé du 22 au 27 octobre à Oaxaca, au Mexique. J'y ai exposé mes récents travaux en optimisation non convexe. C'était une expérience enrichissante à bien des égards, et j'attends avec impatience les retombées des nombreuses discussions que nous avons eues durant ce workshop.
La semaine précédant mon séjour au Mexique, j'ai rendu visite à Stefan Wild et Jeffrey Larson au laboratoire national d'Argonne. J'ai beaucoup apprécié d'y revenir, grâce notamment à l'accueil que m'y ont réservé mes deux hôtes !

Parcours

  • Je suis depuis novembre 2016 un chercheur post-doctorant (postdoctoral research associate) en optimisation au sein du Wisconsin Institute for Discovery à Madison, dans l'état du Wisconsin (Etats-Unis). J'ai la chance d'y être encadré par Stephen J. Wright.

  • D'octobre 2013 à octobre 2016, j'étais doctorant au sein de l'équipe APO de l'Institut de Recherche en Informatique de Toulouse (IRIT, UMR 5505), sous la direction de Serge Gratton et Luís Nunes Vicente. Le 4 novembre 2016, j'ai obtenu mon doctorat de l'université de Toulouse, délivré par l'Université Toulouse III Paul Sabatier.

  • Je suis ingénieur diplômé de l'INP-ENSEEIHT, en Informatique et Mathématiques Appliquées, promotion 2013. J'ai également obtenu la même année mon diplôme de Master Recherche en Informatique.
    Pour plus d'informations, vous pouvez consulter mon CV en version courte ou complète.

    Thématiques de recherche

    Ma recherche s’articule autour de l’optimisation numérique et ses applications. Mes travaux en cours portent plus particulièrement sur deux aspects de ce domaine : l'introduction d'éléments aléatoires dans des algorithmes par ailleurs déterministes et la complexité au pire cas des méthodes d'optimisation dans un cadre général. Je m'intéresse également aux algorithmes d'optimisation sans dérivées, dans la continuité de mon doctorat.

    Publications

    Travaux soumis pour publication

    Complexity analysis of second-order line-search algorithms for smooth nonconvex optimization
         C. W. Royer and S. J. Wright.
         Technical Report arXiv:1706.03131, 2017.
    A decoupled first/second-order steps technique for nonconvex nonlinear unconstrained optimization with improved complexity bounds
         S. Gratton , C. W. Royer and L. N. Vicente.
         Preprint 17-21, Dept. Mathematics, Univ. Coimbra, 2017.
    Direct search based on probabilistic feasible descent for bound and linearly constrained problems
         S. Gratton , C. W. Royer, L. N. Vicente and Z. Zhang.
         Preprint 17-10, Dept. Mathematics, Univ. Coimbra, 2017.

    Articles de revues internationales

    Complexity and global rates of trust-region methods based on probabilistic models
         S. Gratton , C. W. Royer, L. N. Vicente and Z. Zhang.
         A paraître dans IMA Journal of Numerical Analysis, 2017.
    A second-order globally convergent direct-search method and its worst-case complexity
         S. Gratton , C. W. Royer and L. N. Vicente.
         Optimization, 65(6):1105-1128, 2016.
    Direct search based on probabilistic descent
         S. Gratton , C. W. Royer, L. N. Vicente and Z. Zhang.
         SIAM Journal on Optimization, 25(3):1515-1541, 2015.

    Actes de conférences

    On the injectivity and nonfocal domains of the ellipsoid of revolution
         J.-B. Caillau and C. W. Royer.
         Geometric Control Theory and Sub-Riemannian Geometry, 73-86, Springer, 2014
         Actes de la conférence INDAM en contrôle géométrique et géométrie sous-riemannienne, Mai 2012.

    Thèse

    Algorithmes d'optimisation sans dérivées à caractère probabiliste ou déterministe : analyse de complexité et importance en pratique.
         C.W. Royer, Université de Toulouse, novembre 2016.
         Transparents de soutenance.

    Codes

    DSPFD: Direct Search based on Probabilistic Feasible Descent Sources
         Code de recherche directe en MATLAB pour problèmes d'optimisation sans dérivées. La version courante traite les problèmes sans contraintes, avec contraintes d'intervalle et contraintes linéaires. L'algorithme se base sur l'utilisation de directions aléatoires, ce qui lui permet d'être plus économe en évaluations de fonction que les méthodes déterministes, tout en possédant des garanties théoriques de convergence.
         Ce code est entretenu et a été utilisé dans ces travaux. Dans le cas sans contraintes, l'algorithme correspond à celui décrit dans cet article.

    DESTRESS: DEcoupled Steps in a Trust-REgionS Strategy Sources
         Algorithme de régions de confiance en MATLAB pour problèmes d'optimisation lisses, sans contraintes, avec garanties de convergence au second ordre. Les aspects d'ordres un et deux sont traités séparément via une technique dite de découplage, que j'ai développée au cours de mon doctorat.
         Ce code est entretenu et a été utilisé pour ces travaux.

    SOUNDS: Second-Order UNconstrained Direct Search Sources
         Code MATLAB correspondant à plusieurs méthodes de recherche directe adaptées aux problèmes d'optimisation lisses, sans contraintes, pour lesquels les dérivées ne sont pas disponibles. Les différents algorithmes possèdent des garanties de convergence (faible ou forte) au second ordre.
         Ce code est entretenu: il rassemble les algorithmes SDS et AHDS décrits dans cet article, ainsi que les algorithmes de recherche directe dits découplés, que j'ai développés durant ma thèse de doctorat.


    Revenir en haut de la page

    Sélection d'exposés

    Complexité de méthodes de recherche linéaire en optimisation non convexe Exposé
         CMO Workshop Beyond Convexity: Emerging Challenges in Data Science, 2017, Oaxaca, Mexique.
         Optimization 2017, Universidade de Lisboa, 2017, Lisbonne, Portugal.
         Conférence MOPTA, Lehigh University, 2017, Bethlehem (Pennsylvanie), Etats-Unis.
         Co-auteur : Stephen J. Wright.

    Numerical Optimization with Probabilistic Guarantees Poster
         Prix du meilleur poster, Ecole d'Automne ALOP, 2017, Université de Trèves (Trier), Allemagne.

    Propriétés probabilistes dans les algorithmes d’optimisation sans et avec dérivées Exposé
    (Version anglaise)
         Séminaire SPOC, Institut de Mathématiques de Bourgogne, 2017, Dijon, France.

    Direct Search Using Probabilistic Feasible Descent for Bound and Linearly Constrained Problems Exposé
         Conférence SIAM en Optimisation, 2017, Vancouver, Canada.
         Co-auteurs : S. Gratton, L. N. Vicente and Z. Zhang.

    La liste complète de mes présentations et posters est disponible via mon cv.

    Revenir en haut de la page

    Enseignement

    ENSEEIHT (2013-2016)

    J'ai effectué au cours de ma thèse des activités de monitorat financées par le LabEx CIMI, entre 2013 et 2016. Cette charge d'enseignement s'est déroulée au sein du département Informatique et Mathématiques Appliquées (IMA) de l'INP-ENSEEIHT.
    Vous trouverez ci-dessous une liste de ces activités. Sauf mention contraire, j'ai participé à ces enseignements durant les trois ans de mon doctorat.

    INP-ENSEEIHT, 1re année IMA
    Analyse Hilbertienne
         TP d'initiation à MATLAB utilisant le cours d'Analyse Hilbertienne (anciennement Algèbre linéaire).
    Rappels Analyse (2015-2016)
         Séances de tutorat (thèmes abordés: ensembles, suites, fonctions de la variable réelle, topologie).
    Calcul Différentiel (2013-2015)
         TD associés au cours éponyme, couvrant des aspects du calcul différentiel en dimension finie et infinie.

    INP-ENSEEIHT, 2e année IMA
    Méthodes de Krylov
         Projet MATLAB portant sur des variantes de l'algorithme GMRES.
    Equations aux dérivées partielles
         TP-Projet : implémentation d'un code d'éléments finis en MATLAB.
    Systèmes Concurrents
         TP de programmation parallèle en OpenMP.
    Optimisation Numérique
         TP-Projet en MATLAB couvrant les principaux algorithmes d'optimisation différentiable.

    Vous trouverez la description de ces activités dans mon cv.


    Revenir en haut de la page
    La mise en page de ce site a été réalisée par Clothilde Royer, merci à elle.
    Les documents présents sur cette page sont accessibles sous licence Creative Commons CC BY-NC 4.0.