Vers un apprentissage fédéré et un affinement distribué efficace sur des dispositifs hétérogènes et à ressources restreintes
J-176
Doctorat Doctorat complet
- Disciplines
- Laboratoire
- Laboratoire Instrumentation Intelligente, Distribuée et Embarquée Département d’Instrumentation Numérique
- Institution d'accueil
- Université Paris-Saclay
Description
L’objectif de cette thèse est de développer des méthodes visant à améliorer l’efficacité des ressources dans le cadre de l’apprentissage fédéré (FL), en tenant compte des contraintes et de l’hétérogénéité des ressources des clients. Le travail portera dans un premier temps sur l’architecture classique client-serveur de l’apprentissage fédéré, avant d’étendre l’étude aux environnements fédérés décentralisés. Les méthodes proposées seront étudiées à la fois dans le contexte de l’entraînement fédéré de modèles et dans celui de l’affinement distribué de modèles de grande taille, tels que les grands modèles de langage (LLMs).Offre financée
- Type de financement
- CEA
Dates
Date limite de candidature 24/12/25
Durée36 mois
Date de démarrage25/10/25
Date de création27/06/25
Langues
Niveau de français requisAucun
Niveau d'anglais requisAucun
Possibilité de faire sa thèse en anglais
Divers
Frais de scolarité annuels391 € / an
Contacts
Vous devez vous connecter pour voir ces informations.
Cliquez ici pour vous connecter ou vous inscrire (c'est gratuit !)