Projet TARANIS

Modéliser, déployer, orchestrer et optimiser les applications et les infrastructures du cloud

— Aperçu

Stratégie basée sur une abstraction significative de la description de la structure de l’application afin de pouvoir automatiser encore plus la gestion des applications et des infrastructures.

Christian Perez, Directeur de recherche Inria

Mots-Clés : Cloud, Edge, IoT, Computation Continuum, modèle, vérification, déploiement, reconfiguration, orchestrateur, optimisation

Les nouvelles infrastructures, telles que le Edge Computing ou le continuum de calcul Cloud-Edge-IoT, rendent les problématiques du cloud plus encore complexes car elles ajoutent de nouvelles problématiques liées à la diversité et à l’hétérogénéité des ressources (du petit capteur au centre de données / HPC, du réseau à basse consommation aux réseaux de cœur), à la distribution géographique, ainsi qu’à des besoins accrus de dynamicité et de sûreté, le tout sous des contraintes comme par exemple de consommation d’énergie.

Pour exploiter efficacement ces nouvelles infrastructures, le projet Taranis est basé sur une stratégie visant à abstraire la description de la structure des applications et des ressources afin d’automatiser encore plus leur gestion. Ainsi, il sera possible d’optimiser globalement les ressources utilisées vis à vis d’objectifs multicritères (prix, échéance, performance, énergie, etc.) aussi bien du côté utilisateur (applications) que fournisseur de ressources (infrastructures). Taranis vise aussi les défis liés à l’abstraction de la reconfiguration des applications et afin d’adapter dynamiquement l’usage des ressources.

— Les missions

— Nos recherches

Le projet Taranis aborde cette problématique via quatre lots scientifiques, chacun se focalisant sur une phase du cycle de vie des applications : modèle de description des applications et infrastructures, déploiement et reconfiguration, orchestration et optimisation. Le lot 0 est consacré à la gestion de projet.

Modélisation

Étudie les verrous liés à la complexité induite dans les modèles d’applications et d’infrastructures de Cloud-Edge


Déploiement et reconfiguration

Étudie les verrous relatifs au déploiement et à la reconfiguration


Orchestration de services et de ressources

A pour objectif d’étendre les orchestrateurs pour le continuum Cloud-Edge-IoT


Optimisation

Vise à revisiter les problèmes d’optimisation associés à l’utilisation des infrastructures Cloud-Edge-IoT.

— Les partenaires

Le consortium

Inria, CNRS, IMT, UGA, CEA, Université de Rennes, ENS Lyon, Université Claude Bernard Lyon 1, Université de Lille, INSA Rennes

— Équipe de recherche

48 permanents (non financés par le projet)
46 personnes financées par le projet dont:
27 doctorants
7 postdoctorants
12 ingénieurs

Implantation des équipes en France

— Les publications



6 documents

Articles dans une revue

  • Fatima Elhattab, Sara Bouchenak, Cédric Boscher. PASTEL: Privacy-Preserving Federated Learning in Edge Computing. Proceedings of the ACM on Interactive, Mobile, Wearable and Ubiquitous Technologies , 2024, 7 (4), pp.1-29. ⟨10.1145/3633808⟩. ⟨hal-04394133⟩

Communications dans un congrès

  • Brell Peclard Sanwouo, Clément Quinton, Paul Temple. Breaking the Loop: AWARE is the new MAPE-K. FSE'25 - ACM International Conference on the Foundations of Software Engineering, Jun 2025, Trondheim, Norway. ⟨hal-04992342⟩
  • Dominik Huber, Sergio Iserte, Martin Schreiber, Antonio J. Peña, Martin Schulz. Bridging the Gap Between Genericity and Programmability of Dynamic Resources in HPC. ISC High Performance 2025 - 40th ISC High Performance International Conference, Jun 2025, Hamburg, Germany. pp.1-11. ⟨hal-04994828⟩
  • Cédric Boscher, Nawel Benarba, Fatima Elhattab, Sara Bouchenak. Personalized Privacy-Preserving Federated Learning. Proceedings of the 25th International Middleware Conference, Dec 2024, Hong Kong, China. pp.454--466, ⟨10.1145/3652892.3700785⟩. ⟨hal-04770214⟩
  • Yasmine Djebrouni, Isabelly Rocha, Sara Bouchenak, Lydia Chen, Pascal Felber, et al.. Characterizing Distributed Machine Learning Workloads on Apache Spark. Middleware '23: 24th International Middleware Conference, Dec 2023, Bologna, Italy. pp.151-164, ⟨10.1145/3590140.3629112⟩. ⟨hal-04399409⟩

Autres publications



Autres projets

close

FORMULAIRE D'ABONNEMENT

Inscrivez-vous pour recevoir chaque trimestre la Newsletter du PEPR Cloud.

En vous abonnant à la newsletter du PEPR Cloud, vous acceptez de recevoir des informations régulières sur nos projets, nos recherches, nos événements, et autres actualités liées au PEPR.

Vous pourrez vous désabonner à tout moment en utilisant le lien de désabonnement présent sur chaque newsletter.

Politique de confidentialité

Les commentaires sont clos.