logo_ecole_slicesfr_2025_maxi.png   slicefr_1.png  slicesri_color_pos.png  cropped_FR2030_Cloud_Couleur.jpg  logo_pepr_reseaux.jpg   ENS de Lyon

Programme > Description des sessions

Programme détaillé des Présentations

Ariel OS : une plateforme de logiciel embarqué en Rust pour microcontrôleurs connectés
📅 Lundi 7 juillet 2025 — 🕒 16:10 - 16:40
Baccelli Emmanuel — Inria Fouquet Romain — Inria
  Dans le cadre d'une communauté open-source internationale que nous avons fondée et que nous animons (en lien avec RIOT), nous développons un système d'exploitation en Rust pour microcontrôleurs, destiné aux systèmes embarqués à basse consommation énergétique, connectés et sécurisés. Nous nous proposons dans un premier temps de présenter les spécificités du langage pour les systèmes embarqués ainsi que différentes façons dont l'écosystème existant en tire parti, avant de mettre en lumière les limitations actuelles de cet écosystème pour le développement d'applications embarquées. Dans un second temps, nous présenterons Ariel OS, un système d'exploitation qui vise à répondre à ces limitations tout en s'appuyant sur l'écosystème existant, notamment par l'utilisation d'un build system adapté, afin de créer des applications connectées et portables facilement. Dans un troisième temps, nous aborderons les besoins en termes de testbed experimental et de batteries de test d'intégration continue (CI/CD) caractéristiques pour le developpement et la maintenance d'un RTOS tel que Ariel OS et/ou RIOT, qui auraient potentiellement vocation à être en partie couverts par SLICES. Pour plus d'information sur Ariel OS: voir https://ariel-os.org/
Réalisation d'un noeud d'expérimentation IoT configurable
📅 Lundi 7 juillet 2025 — 🕒 16:40 - 17:10
Finiel Jérémie — Laboratoire d'Informatique de Grenoble Duble Etienne — Laboratoire d'Informatique de Grenoble Rousseau Franck — Drakkar
Nous souhaitons présenter le projet WalT on the Roof, dans lequel nous développons un noeud d'expérimentation IoT ultra-configurable. L'approche consiste à interconnecter de manière programmable différents éléments permettant de réaliser facilement de nombreuses expérimentations à partir d'un seul développement matériel / logiciel. Pour cela nous concevons un ensemble de cartes empilables qui vont permettre d'interconnecter des cartes achetées sur étagère, le tout piloté par un RaspberryPi pour la configuration et le contrôle. Le but de cette intervention est présenter les concepts, les premiers développements, faire quelques démos, mais surtout d'essayer de fédérer les collègues intéressés par la démarche pour coller au mieux à leur attentes et trouver des partenaires pour participer à la conception et au développement. Ces réflexions pourraient également servir à poser les premiers éléments d'un blueprint "IoT framework".
Etat des lieux sur l'apport des gestionnaires de paquets fonctionnels pour l'expérimentation
📅 Mardi 8 juillet 2025 — 🕒 10:30 - 11:00
Richard Olivier — Laboratoire d'Informatique de Grenoble
Les gestionnaires de paquets fonctionnels (FPM) comme Nix ou Guix, bousculent en profondeur les approches classiques suivies pour l'expérimentation de systèmes informatiques. Ils offrent une garantie forte en matière de production de piles logicielles au prix de l'usage de paradigmes fonctionnel et déclaratif. Le projet NixOS-Compose reposant sur l'éco-système de Nix nous permet d'explorer les apports et les impacts sur les différents étapes du cycle vue comme : complexité des systèmes étudiées, phases de mise au point, déploiement, production de SBOM (Software Bill of Materials). Dans cet exposé nous détaillerons les principaux bénéfices, les prochaines opportunités et challenges ansi que les limitations.
Auction-based Placement of Functions in the Fog on a Large-Scale Testbed
📅 Mardi 8 juillet 2025 — 🕒 11:00 - 11:30
Parol-Guarino Volodia — Centre Inria de l'Université de Rennes
Function-as-a-Service (FaaS) is a programming model in which applications are formed by chaining ephemeral computation units referred to as functions. FaaS is particularly suitable for developing fog-native applications by enabling flexible, on-demand placement of functions across the cloud-to-thing continuum. This continuum encompasses diverse fog nodes ranging from cloud servers to myriads of resource-constrained and geographically-distributed devices. Although many recent studies have focused on efficiently placing functions on fog resources, limited attention has been given to respecting application latency requirements. Moreover, few studies have considered the multiple entities that own fog nodes and explored mechanisms to incentivize fog node owners to share resources within the same fog network to improve quality of service for clients.   First, this exposé addresses the FaaS function placement problem in the fog through a market-based approach. Clients submit function placement requests with expected guarantees over network latency and allocated resources, encapsulated within a Service-Level Agreement (SLA). A marketplace then organizes an auction where fog nodes bid on the SLA to determine the node that will host the function and the revenue of the fog node owner. Our approach is evaluated by emulating networks of fog nodes, utilizing our reproducible and open-source testbed running on the Grid'5000 infrastructure. We evaluate various cooperative baselines on the same testbed and demonstrate that our approach reduces client spending by 70% while maintaining the expected latency across fog networks with up to 663 nodes, under realistic loads from FaaS function chains.   Then, the exposé briefly discusses the undergoing contribution of making a fog-native applications able to scale and adapt to the fog constrained nature by extending the FaaS paradigm. Finally, we conclude the exposé by feedbacks and experiences about the development of our testbed running on top of Grid'5000 and its toolsets. Notably, we discuss Nix, Enoslib and its modifications, an alternative to netem using eBPF, Tailscale and finally some pitfalls configuring grid'5000.
Continuum IoT-Cloud à travers une utilisation conjointe des plateformes FIT/IoT-LAB et Grid5k
📅 Mardi 8 juillet 2025 — 🕒 11:30 - 12:00
Van Den Bossche Adrien — IRIT
L'objectif de cette activité est de proposer une démonstration ou un tutoriel interactif illustrant le continuum IoT-Cloud à travers une utilisation conjointe des plateformes FIT/IoT-LAB et Grid5k. Une collecte de données (distance/ranging UWB + capteurs) sera réalisée sur des noeuds FIT avec des données remontées sur une infra de traitement de données via LoRaWAN et Chripstack, avec stockage de données en base influxdb et visualisation via Grafana. La démonstration montrera l'intéret du déploiement automatisé dans le cadre de la répétabilité, avec un déploiement des noeuds IoT via FIT et l'usage de docker sur la partie cloud.
Energy measures on Grid'5000
📅 Mercredi 9 juillet 2025 — 🕒 14:00 - 14:30
Da Costa Georges — IRIT, Université de Toulouse, CNRS UMR 5505, Toulouse
The goal will be to explore the methods and limits of measuring energy/power on Grid5000
Estimating the environmental impact of AI inference deployment : Large scale VS Edge devices
📅 Mercredi 9 juillet 2025 — 🕒 14:30 - 15:00
Simeu Djoser — Laboratoire d'Informatique de Grenoble Carastan-Santos Danilo — Laboratoire d'Informatique de Grenoble Lefèvre Laurent — École normale supérieure de Lyon Trystram Denis — Université Grenoble Alpes
Avec les améliorations considérables des systèmes d'IA appliqués aux tâches de traitement du langage naturel (NLP) que nous avons observées au cours des trois dernières années, nous pouvons également constater que ces nouveaux modèles d'IA qui apprennent à comprendre le langage humain naturel commencent à être déployé à grande échelle (ChatGPT, Gemini, DeepSeek ...). Ces déploiements ne se sont pas faits sans un coût environnemental important, les travaux de Berthelot et al. qui estiment l'impact environnemental du service d'IA générative « Stable Diffusion » montrent que, pour une année d'utilisation, le service produit plusieurs centaines de tonnes d'émissions d'équivalent carbone et a un impact sur l'utilisation de métaux rares équivalent à la production de plusieurs milliers de smartphones. Ce constat couplé à la croissance du déploiement de ce système est alarmant dans notre contexte de défi environnemental. De plus, une étude de Morand et al. a montré que l'impact environnemental du matériel utilisé pour l'entraînement et les déploiements de grands systèmes d'IA n'a cessé d'augmenter de 2013 à 2023. Il existe une alternative possible à ce déploiement d'inférence à grande échelle ; elle consiste à utiliser des appareils périphériques pour gérer le calcul requis par le processus d'inférence. Ce type de matériel consomme moins d'énergie, est moins cher, nécessite moins de communication réseau et peut être placé plus près de l'utilisateur. Ces facteurs peuvent avoir un impact significatif sur l'empreinte environnementale des systèmes déployés. L'objectif de cette étude est de comparer l'impact environnemental de ces systèmes de pointe. Cette étude se concentre sur le déploiement de l'inférence des modèles d'IA, en raison de leur importance considérable dans l'impact environnemental global des systèmes d'IA tout au long de leur cycle de vie. L'importance des déploiements d'inférence est également bien présentée dans l'étude « Stable Diffusion ». Cet exposé commence par présenter les différences entre les dispositifs de périphérie et les dispositifs à grande échelle, ainsi que la complexité liée à leur différenciation. Nous présentons la méthodologie que nous avons utilisée pour quantifier l'empreinte environnementale de l'inférence pour notre étude ; cette méthodologie est basée sur l'évaluation du cycle de vie des méthodologies de l'état de l'art. Nous présentons ensuite l'ensemble du matériel que nous considérons dans notre étude, basé sur l'ensemble des composants informatiques disponibles sur la plateforme Grid 5000. Nous avons appliqué notre méthodologie à ces composants afin d'observer certaines tendances dans l'impact environnemental de la fabrication du matériel à différentes échelles. Nous décrivons également l'approche que nous avons utilisée pour définir une méthodologie expérimentale dans le but de mesurer le temps d'exécution et la consommation d'énergie de notre matériel.
Mesure des coûts énergétiques du développement des modèles d'IA sur Grid'5000
📅 Mercredi 9 juillet 2025 — 🕒 15:00 - 15:30
Douwes Constance — LIS
Ces dernières années, l'impact environnemental et les coûts énergétiques liés à l'intelligence artificielle (IA) suscitent un intérêt croissant. De nombreuses études et outils ont été développés pour évaluer leur empreinte environnementale, l'accent étant principalement mis sur les émissions de carbone générées lors de l'apprentissage des modèles. Toutefois, une part significative de la consommation énergétique intervient en amont, lors de la phase de développement. Celle-ci englobe l'ensemble des étapes nécessaires à la conception des modèles et à leurs multiples entraînements. Dans cet exposé, je propose d'analyser le coût énergétique du développement de modèles d'IA à partir des données issues de la plateforme Grid'5000. Grâce aux statistiques fournies par cette dernière, il est possible d'accéder aux détails de chaque job utilisateur — notamment leur durée et les ressources matérielles mobilisées. Ces informations permettent d'estimer le coût énergétique de chaque job, puis de calculer le coût total du développement en sommant les coûts de l'ensemble des jobs associés à un même projet. En étudiant des projets spécifiques menés par l'équipe de recherche Multispeech du laboratoire LORIA, je montre que le coût de développement peut représenter entre 49 et 256 fois le coût d'un entraînement unitaire du modèle ayant surpassé l'état de l'art. À travers cet exposé, j'espère ainsi sensibiliser la communauté scientifique aux enjeux écologiques liés à la conception des systèmes d'intelligence artificielle.
Sufficiency in Cloud : Minimizing Idle Power Consumption Through Improved User Behavior
📅 Mercredi 9 juillet 2025 — 🕒 15:30 - 16:00
Ahmadzada Eyvaz — IRIT - SEPIA Stolf Patricia — IRIT - SEPIA Pierson Jean-Marc — IRIT - SEPIA Lefèvre Laurent — École normale supérieure de Lyon
Cloud computing enables scalable and flexible resource allocation. However, it often leads to unnecessary energy consumption due to inefficient user behaviors and resource provisioning strategies. This research explores sufficiency techniques in cloud environments and aims to reduce energy waste by encouraging both cloud users and providers to adopt more conscious resource usage practices. We propose that simple user-driven optimizations can lead to significant energy reductions. To find the possible optimization techniques, we analyze job records from the Grid'5000 testbed. We investigate resource usage both during idle times and under utilization, and measure their impact on energy consumption. User behavior improvements could include selecting appropriate resources for workloads and actively managing idle periods. Our contribution focus on understanding resource usage patterns and ensuring that only the required resources are allocated. To demonstrate how small adjustments in user practices can contribute to sustainability in cloud computing, we simulate these behavior changes and assess their impact on the overall idle consumption of the system. Using the simulation platform Batsim, we evaluate the potential energy savings when users adjust their behaviors. To achieve this, we perform simulations with original and modified workloads, and compare the results. This study aims to bridge the gap between energy-efficient cloud management and user awareness. We believe that intentional sufficiency techniques rather than just technological advancements can drive substantial reductions in cloud energy consumption.
Comment tester des communications très longue distance
📅 Mercredi 9 juillet 2025 — 🕒 16:30 - 17:00
Donsez Didier — Laboratoire d'Informatique de Grenoble
Le projet ThingSat du CSUG conçoit et évalue des protocoles de communication longue distance pour des applications de l'Internet des Objets par satellite bidirectionnel (SatIoT), ainsi que pour les réseaux mondiaux à faible consommation par satellite (LPGAN). Les modulations LoRa et LR-FHSS permettent des communications sur de très longues distances avec une faible puissance d'émission (typiquement 25 mW). Dans le contexte du NewSpace
Visualiser vos fonctions réseaux cloud natives
📅 Mercredi 9 juillet 2025 — 🕒 17:00 - 17:30
Merle Philippe — Centre Inria de l'Université de Lille
Les réseaux du futur seront constitués de myriades de fonctions réseaux cloud native interopérantes. La tendance actuelle est que chaque fonction soit réalisée par un ensemble de micro-services orchestrés dans le continuum Cloud / Fog / Edge, l'orchestrateur de référence étant Kubernetes. Cet exposé présente KubeDiagrams, un outil pour générer des diagrammes d'architecture Kubernetes, et illustre son utilisation sur différentes implantations des fonctions réseaux cloud natives de coeurs 5G telles que OpenAirInterface 5G Core Network, Towards5G, free5gc-k8s, open5gs-k8s et docker-open5gs.
Plateforme NGC-AIoT (AI+IoT)
📅 Mercredi 9 juillet 2025 — 🕒 17:30 - 18:00
Adjih Cédric — INRIA-Saclay Molano Ortiz Fernando — INRIA-Saclay
(note: proposition affinée après discussion avec Guillaume [Schneider]) La plateforme NGC-AIoT est une plateforme du PC10 du PEPR-NF (qui dérive de IoT-LAB). Elle est bi-localisée Inria-Saclay / Telecom Paris. (cf présentations des sites, des réunions des resp. de sites). Actuellement il y a 16+ Jetsons à Inria Saclay, et 2 à Telecom Paris (connectivité cellulaire en cours). Option 1) peut-être dans la partie - démo et discussion, , et discussion/retour d'expérience par exemple : - une démo potentielle de cas d'usage (e.g. split computing) - éventuellement un peu de background sur ce genre de cas d'usage (pourquoi IA + embarqué + cellulaire),\ - comment integrer ce type de device edge (Jetsons), quels sont les services requis ? - quels sont les connectivités requises (fixe, sans fil, 4G/5G/6G, Wi-Fi). En particulier expertise Telecom Paris, avec station de base BaiCell 2.6 GHz TDD voire RapidSpace/Amarisoft. - quels monitorings (energie, réseaux) - (+ cas particuliers: monitoring de la station de base cellulaire). - quelle est l'infra, quels sont les problèmes recontrer pour intégrer ce type d'équipements ? - etc. Option 2) Tutoriel/hackthon sur le testbed NGC-AIoT (utilisé à distance). Les 18 Jetsons disponibles serait utilisables par les utilisateurs pour des expériences de leur choix. On leur proposerait des d;essayer de faire tourner des exemples pour Jetson appropriés en mode hackathon : - exemples NVidia - https://developer.nvidia.com/embedded/community/jetson-projects?sortBy=jetson_community_projects%2Fsort%2Fdate_added%3Adesc - https://www.jetson-ai-lab.com - Fédérated Learning (declearn ou Flowers) - mini-benchmarking Fernando & C.A. seraient en support pour les aider (sur les aspects outils/infra, etc.).     PS: c'est seulement, indirectement lié, mais P. Martins et J.S. Gomez (Telecom Paris) ont offert aussi de faire des "TPs" ou démos (éventuellement en amenant des USRPs) de telecoms cellulaires en radio logicielle. Discussions possibles.
De YOUPI - une plateforme Edge/Fog Computing vers le noeud Computing Continuum SLICES-FR Lyon, venez exprimez vos besoins !
📅 Jeudi 10 juillet 2025 — 🕒 14:00 - 14:30
Le Mouel Frederic — DISTO
Présentation et démonstration de Youpi
Méthodologie de caractérisation des I/O pour le HPC
📅 Jeudi 10 juillet 2025 — 🕒 14:30 - 15:00
Jolivel Théo — KerData Tessier François — KerData Luettgau Jakob — KerData Antoniu Gabriel — KerData Deniel Philippe — CEA
Nous proposons une méthodologie de caractérisation automatique de traces I/O permettant de détecter les motifs récurrents d'accès aux données effectués par des applications HPC. Nous implémentons cette méthodologie à travers MOSAIC, une librairie Python optimisée pour la catégorisation d'un grand volume de traces I/O, collectées au niveau système. La détection et catégorisation des motifs est faite selon 3 axes principaux : la temporalité des accès, la détection d'accès périodiques et réutilisation de fichiers, ainsi qu'une estimation de l'impact des requêtes sur les serveurs de métadonnées. En particulier, nous utilisons deux algorithmes de détection des périodicités pour couvrir une large gamme de motifs périodiques, ainsi qu'un calcul de température de fichiers pour détecter ceux fréquemments accédés. Des classes sont assignées aux traces pour rendre compte des différents motifs qu'elles contiennent, et permettre de discerner les motifs les plus récurrents dans les jeux de données. Nous utilisons MOSAIC avec deux jeux de données provenant de supercalculateurs pétaflopiques aux architectures différentes afin d'analyser les motifs les plus courant et les différences visibles entre les machines. Cette catégorisation ouvre la porte à différentes optimisation I/O : la création et l'utilisation d'ordonnanceurs optimisés pour éviter la contention I/O, l'allocation dynamique de buffers et le préchargement de données pour optimiser l'accés aux données les plus fréquemment utilisées, ainsi que l'entraînement de modèles de prédiction de charge I/O basée sur les motifs observés en temps réel.
Slices/CorteXlab: déploiement d'un service pour l'évaluation des approches de joint communication and sensing, dans le contexte du projet européen SNS/Instinct
📅 Vendredi 11 juillet 2025 — 🕒 10:30 - 11:00
Morin Cyrille — CITI Centre of Innovation in Telecommunications and Integration of services Sampaio Cardoso Leonardo — CITI Centre of Innovation in Telecommunications and Integration of services
Le banc d'essai SLICES/CorteXlab est l'un des bancs d'essai de l'infrastructure de recherche SLICES, dédié à la recherche sur les communications radio. Avec sa salle blindée de 180 m² qui garantit la reproductibilité des expériences et ses 40 nœuds radio SDR haut de gamme, SLICES/CorteXlab offre une configuration unique pour expérimenter les nouvelles techniques radio de pointe. La plateforme est physiquement située à Lyon, mais on peut y accéder et l'utiliser à distance depuis n'importe où dans le monde. La présentation/démonstration vise à montrer comment travailler avec la plateforme SLICES/CorteXlab, en réalisant des expériences de communication radio et de détection à distance. Elle consistera à exécuter diverses communications radio, à recueillir et à afficher diverses mesures de manière interactive, telles que le taux d'erreur sur les bits (BER) ou la réponse en fréquence du canal entre les appareils de la plateforme. Tout cela en modifiant les conditions de propagation radio à l'aide d'une surface réflective intelligente (RIS) fournie par Greenerwave dans le cadre du projet européen SNS/Instinct.
FaaSLoad: Fine-grained Performance and Resource Measurement for Function-as-a-Service
📅 Vendredi 11 juillet 2025 — 🕒 11:00 - 11:30
Bacou Mathieu — Efficient and safe distributed systems
Cloud computing relies on a deep stack of system layers: virtual machine, operating system, distributed middleware and language runtime. However, those numerous, distributed, virtual layers prevent any low-level understanding of the properties of FaaS applications, considered as programs running on real hardware. As a result, most research analyses only consider coarse-grained properties such as global performance of an application, and existing datasets include only sparse data. FaaSLoad is a tool to gather fine-grained data about performance and resource usage of the programs that run on Function-as-a-Service cloud platforms. It considers individual instances of functions to collect hardware and operating-system performance information, by monitoring them while injecting a workload. FaaSLoad helps building a dataset of function executions to train machine learning models, studying at fine grain the behavior of function runtimes, and replaying real workload traces for in situ observations. This research software project aims at being useful to cloud system researchers with features such as guaranteeing reproducibility and correctness, and keeping up with realistic FaaS workloads. Our evaluations show that FaaSLoad helps us understanding the properties of FaaS applications, and studying the latter under real conditions.
Utilisation de la réalité virtuelle pour une experience immersive dans l'utilisation de SLICES-FR
📅 Vendredi 11 juillet 2025 — 🕒 11:30 - 12:00
Negro Olivier — IUT Blagnac
Translator Cette présentation illustre l'intérêt des technologies immersives telles que la réalité virtuelle pour permettre à l'utilisateur distant dans une expérience scientifique IoT de mieux prendre conscience de l'environnement de l'expérience. De plus une partie des résultats de l'expérience scientifique peut être visualisée en temps réel dans l'environnement virtuel et ainsi constater plus facilement l'impact des certains phénomènes de propagation radio. Une démonstration sera proposée pour illustrer le contenu de la présentation.
Chargement... Chargement...