Ariel OS : une plateforme de logiciel embarqué en Rust pour microcontrôleurs connectés
📅 Lundi 7 juillet 2025 — 🕒 16:10 - 16:40
Dans le cadre d'une communauté open-source internationale que nous avons fondée et que nous animons (en
lien avec RIOT), nous développons un système d'exploitation en Rust pour microcontrôleurs, destiné aux
systèmes embarqués à basse consommation énergétique, connectés et sécurisés.
Nous nous proposons dans un premier temps de présenter les spécificités du langage pour les systèmes
embarqués ainsi que différentes façons dont l'écosystème existant en tire parti, avant de mettre en
lumière les limitations actuelles de cet écosystème pour le développement d'applications embarquées. Dans
un second temps, nous présenterons Ariel OS, un système d'exploitation qui vise à répondre à ces
limitations tout en s'appuyant sur l'écosystème existant, notamment par l'utilisation d'un build system
adapté, afin de créer des applications connectées et portables facilement. Dans un troisième temps, nous
aborderons les besoins en termes de testbed experimental et de batteries de test d'intégration continue
(CI/CD) caractéristiques pour le developpement et la maintenance d'un RTOS tel que Ariel OS et/ou RIOT,
qui auraient potentiellement vocation à être en partie couverts par SLICES. Pour plus d'information sur
Ariel OS: voir https://ariel-os.org/
Réalisation d'un noeud d'expérimentation IoT configurable
📅 Lundi 7 juillet 2025 — 🕒 16:40 - 17:10
Nous souhaitons présenter le projet WalT on the Roof, dans lequel nous développons un noeud
d'expérimentation IoT ultra-configurable. L'approche consiste à interconnecter de manière programmable
différents éléments permettant de réaliser facilement de nombreuses expérimentations à partir d'un seul
développement matériel / logiciel. Pour cela nous concevons un ensemble de cartes empilables qui vont
permettre d'interconnecter des cartes achetées sur étagère, le tout piloté par un RaspberryPi pour la
configuration et le contrôle. Le but de cette intervention est présenter les concepts, les premiers
développements, faire quelques démos, mais surtout d'essayer de fédérer les collègues intéressés par la
démarche pour coller au mieux à leur attentes et trouver des partenaires pour participer à la conception
et au développement. Ces réflexions pourraient également servir à poser les premiers éléments d'un
blueprint "IoT framework".
Etat des lieux sur l'apport des gestionnaires de paquets fonctionnels pour
l'expérimentation
📅 Mardi 8 juillet 2025 — 🕒 10:30 - 11:00
Les gestionnaires de paquets fonctionnels (FPM) comme Nix ou Guix, bousculent en profondeur les approches
classiques suivies pour l'expérimentation de systèmes informatiques. Ils offrent une garantie forte en
matière de production de piles logicielles
au prix de l'usage de paradigmes fonctionnel et déclaratif.
Le projet NixOS-Compose reposant sur l'éco-système de Nix nous permet d'explorer les apports et les
impacts sur les différents étapes du cycle vue comme :
complexité des systèmes étudiées, phases de mise au point, déploiement, production de SBOM (Software Bill
of Materials).
Dans cet exposé nous détaillerons les principaux bénéfices, les prochaines opportunités et challenges ansi
que les limitations.
Auction-based Placement of Functions in the Fog on a Large-Scale Testbed
📅 Mardi 8 juillet 2025 — 🕒 11:00 - 11:30
Function-as-a-Service (FaaS) is a programming model in which applications are formed by chaining ephemeral
computation units referred to as functions. FaaS is particularly suitable for developing fog-native
applications by enabling flexible, on-demand placement of functions across the cloud-to-thing continuum.
This continuum encompasses diverse fog nodes ranging from cloud servers to myriads of resource-constrained
and geographically-distributed devices. Although many recent studies have focused on efficiently placing
functions on fog resources, limited attention has been given to respecting application latency
requirements. Moreover, few studies have considered the multiple entities that own fog nodes and explored
mechanisms to incentivize fog node owners to share resources within the same fog network to improve
quality of service for clients. First, this exposé addresses the FaaS function placement problem in the
fog through a market-based approach. Clients submit function placement requests with expected guarantees
over network latency and allocated resources, encapsulated within a Service-Level Agreement (SLA). A
marketplace then organizes an auction where fog nodes bid on the SLA to determine the node that will host
the function and the revenue of the fog node owner. Our approach is evaluated by emulating networks of fog
nodes, utilizing our reproducible and open-source testbed running on the Grid'5000 infrastructure. We
evaluate various cooperative baselines on the same testbed and demonstrate that our approach reduces
client spending by 70% while maintaining the expected latency across fog networks with up to 663 nodes,
under realistic loads from FaaS function chains. Then, the exposé briefly discusses the undergoing
contribution of making a fog-native applications able to scale and adapt to the fog constrained nature by
extending the FaaS paradigm. Finally, we conclude the exposé by feedbacks and experiences about the
development of our testbed running on top of Grid'5000 and its toolsets. Notably, we discuss Nix, Enoslib
and its modifications, an alternative to netem using eBPF, Tailscale and finally some pitfalls configuring
grid'5000.
Continuum IoT-Cloud à travers une utilisation conjointe des plateformes FIT/IoT-LAB et
Grid5k
📅 Mardi 8 juillet 2025 — 🕒 11:30 - 12:00
L'objectif de cette activité est de proposer une démonstration ou un tutoriel interactif illustrant le
continuum IoT-Cloud à travers une utilisation conjointe des plateformes FIT/IoT-LAB et Grid5k. Une
collecte de données (distance/ranging UWB + capteurs) sera réalisée sur des noeuds FIT avec des données
remontées sur une infra de traitement de données via LoRaWAN et Chripstack, avec stockage de données en
base influxdb et visualisation via Grafana. La démonstration montrera l'intéret du déploiement automatisé
dans le cadre de la répétabilité, avec un déploiement des noeuds IoT via FIT et l'usage de docker sur la
partie cloud.
Energy measures on Grid'5000
📅 Mercredi 9 juillet 2025 — 🕒 14:00 - 14:30
The goal will be to explore the methods and limits of measuring energy/power on Grid5000
Estimating the environmental impact of AI inference deployment : Large scale VS Edge
devices
📅 Mercredi 9 juillet 2025 — 🕒 14:30 - 15:00
Avec les améliorations considérables des systèmes d'IA appliqués aux tâches de traitement du langage
naturel (NLP) que nous avons observées au cours des trois dernières années, nous pouvons également
constater que ces nouveaux modèles d'IA qui apprennent à comprendre le langage humain naturel commencent à
être déployé à grande échelle (ChatGPT, Gemini, DeepSeek ...). Ces déploiements ne se sont pas faits sans
un coût environnemental important, les travaux de Berthelot et al. qui estiment l'impact environnemental
du service d'IA générative « Stable Diffusion » montrent que, pour une année d'utilisation, le service
produit plusieurs centaines de tonnes d'émissions d'équivalent carbone et a un impact sur l'utilisation de
métaux rares équivalent à la production de plusieurs milliers de smartphones. Ce constat couplé à la
croissance du déploiement de ce système est alarmant dans notre contexte de défi environnemental. De plus,
une étude de Morand et al. a montré que l'impact environnemental du matériel utilisé pour l'entraînement
et les déploiements de grands systèmes d'IA n'a cessé d'augmenter de 2013 à 2023. Il existe une
alternative possible à ce déploiement d'inférence à grande échelle ; elle consiste à utiliser des
appareils périphériques pour gérer le calcul requis par le processus d'inférence. Ce type de matériel
consomme moins d'énergie, est moins cher, nécessite moins de communication réseau et peut être placé plus
près de l'utilisateur. Ces facteurs peuvent avoir un impact significatif sur l'empreinte environnementale
des systèmes déployés. L'objectif de cette étude est de comparer l'impact environnemental de ces systèmes
de pointe. Cette étude se concentre sur le déploiement de l'inférence des modèles d'IA, en raison de leur
importance considérable dans l'impact environnemental global des systèmes d'IA tout au long de leur cycle
de vie. L'importance des déploiements d'inférence est également bien présentée dans l'étude « Stable
Diffusion ». Cet exposé commence par présenter les différences entre les dispositifs de périphérie et les
dispositifs à grande échelle, ainsi que la complexité liée à leur différenciation. Nous présentons la
méthodologie que nous avons utilisée pour quantifier l'empreinte environnementale de l'inférence pour
notre étude ; cette méthodologie est basée sur l'évaluation du cycle de vie des méthodologies de l'état de
l'art. Nous présentons ensuite l'ensemble du matériel que nous considérons dans notre étude, basé sur
l'ensemble des composants informatiques disponibles sur la plateforme Grid 5000. Nous avons appliqué notre
méthodologie à ces composants afin d'observer certaines tendances dans l'impact environnemental de la
fabrication du matériel à différentes échelles. Nous décrivons également l'approche que nous avons
utilisée pour définir une méthodologie expérimentale dans le but de mesurer le temps d'exécution et la
consommation d'énergie de notre matériel.
Mesure des coûts énergétiques du développement des modèles d'IA sur Grid'5000
📅 Mercredi 9 juillet 2025 — 🕒 15:00 - 15:30
Ces dernières années, l'impact environnemental et les coûts énergétiques liés à l'intelligence
artificielle (IA) suscitent un intérêt croissant. De nombreuses études et outils ont été développés pour
évaluer leur empreinte environnementale, l'accent étant principalement mis sur les émissions de carbone
générées lors de l'apprentissage des modèles. Toutefois, une part significative de la consommation
énergétique intervient en amont, lors de la phase de développement. Celle-ci englobe l'ensemble des étapes
nécessaires à la conception des modèles et à leurs multiples entraînements. Dans cet exposé, je propose
d'analyser le coût énergétique du développement de modèles d'IA à partir des données issues de la
plateforme Grid'5000. Grâce aux statistiques fournies par cette dernière, il est possible d'accéder aux
détails de chaque job utilisateur — notamment leur durée et les ressources matérielles mobilisées. Ces
informations permettent d'estimer le coût énergétique de chaque job, puis de calculer le coût total du
développement en sommant les coûts de l'ensemble des jobs associés à un même projet. En étudiant des
projets spécifiques menés par l'équipe de recherche Multispeech du laboratoire LORIA, je montre que le
coût de développement peut représenter entre 49 et 256 fois le coût d'un entraînement unitaire du modèle
ayant surpassé l'état de l'art. À travers cet exposé, j'espère ainsi sensibiliser la communauté
scientifique aux enjeux écologiques liés à la conception des systèmes d'intelligence artificielle.
Sufficiency in Cloud : Minimizing Idle Power Consumption Through Improved User Behavior
📅 Mercredi 9 juillet 2025 — 🕒 15:30 - 16:00
Cloud computing enables scalable and flexible resource allocation. However, it often leads to unnecessary
energy consumption due to inefficient user behaviors and resource provisioning strategies. This research
explores sufficiency techniques in cloud environments and aims to reduce energy waste by encouraging both
cloud users and providers to adopt more conscious resource usage practices.
We propose that simple user-driven optimizations can lead to significant energy reductions. To find the
possible optimization techniques, we analyze job records from the Grid'5000 testbed. We investigate
resource usage both during idle times and under utilization, and measure their impact on energy
consumption. User behavior improvements could include selecting appropriate resources for workloads and
actively managing idle periods. Our contribution focus on understanding resource usage patterns and
ensuring that only the required resources are allocated. To demonstrate how small adjustments in user
practices can contribute to sustainability in cloud computing, we simulate these behavior changes and
assess their impact on the overall idle consumption of the system. Using the simulation platform Batsim,
we evaluate the potential energy savings when users adjust their behaviors. To achieve this, we perform
simulations with original and modified workloads, and compare the results. This study aims to bridge the
gap between energy-efficient cloud management and user awareness. We believe that intentional sufficiency
techniques rather than just technological advancements can drive substantial reductions in cloud energy
consumption.
Comment tester des communications très longue distance
📅 Mercredi 9 juillet 2025 — 🕒 16:30 - 17:00
Le projet ThingSat du CSUG conçoit et évalue des protocoles de communication longue distance pour des
applications de l'Internet des Objets par satellite bidirectionnel (SatIoT), ainsi que pour les réseaux
mondiaux à faible consommation par satellite (LPGAN). Les modulations LoRa et LR-FHSS permettent des
communications sur de très longues distances avec une faible puissance d'émission (typiquement 25 mW).
Dans le contexte du NewSpace
Visualiser vos fonctions réseaux cloud natives
📅 Mercredi 9 juillet 2025 — 🕒 17:00 - 17:30
Les réseaux du futur seront constitués de myriades de fonctions réseaux cloud native interopérantes.
La tendance actuelle est que chaque fonction soit réalisée par un ensemble de micro-services orchestrés
dans le continuum Cloud / Fog / Edge, l'orchestrateur de référence étant Kubernetes. Cet exposé présente
KubeDiagrams, un outil pour générer des diagrammes d'architecture Kubernetes, et
illustre son utilisation sur différentes implantations des fonctions réseaux cloud natives de coeurs 5G
telles que OpenAirInterface 5G Core Network, Towards5G, free5gc-k8s, open5gs-k8s et docker-open5gs.
Plateforme NGC-AIoT (AI+IoT)
📅 Mercredi 9 juillet 2025 — 🕒 17:30 - 18:00
(note: proposition affinée après discussion avec Guillaume [Schneider]) La plateforme NGC-AIoT est une
plateforme du PC10 du PEPR-NF (qui dérive de IoT-LAB). Elle est bi-localisée Inria-Saclay / Telecom Paris.
(cf présentations des sites, des réunions des resp. de sites).
Actuellement il y a 16+ Jetsons à Inria Saclay, et 2 à Telecom Paris (connectivité cellulaire en cours).
Option 1) peut-être dans la partie - démo et discussion, , et discussion/retour d'expérience par exemple :
- une démo potentielle de cas d'usage (e.g. split computing)
- éventuellement un peu de background sur ce genre de cas d'usage (pourquoi IA + embarqué + cellulaire),\
- comment integrer ce type de device edge (Jetsons), quels sont les services requis ?
- quels sont les connectivités requises (fixe, sans fil, 4G/5G/6G, Wi-Fi). En particulier expertise
Telecom Paris, avec station de base BaiCell 2.6 GHz TDD voire RapidSpace/Amarisoft.
- quels monitorings (energie, réseaux) - (+ cas particuliers: monitoring de la station de base
cellulaire).
- quelle est l'infra, quels sont les problèmes recontrer pour intégrer ce type d'équipements ?
- etc. Option 2) Tutoriel/hackthon sur le testbed NGC-AIoT (utilisé à distance). Les 18 Jetsons
disponibles serait utilisables par les utilisateurs pour des expériences de leur choix.
On leur proposerait des d;essayer de faire tourner des exemples pour Jetson appropriés en mode hackathon :
- exemples NVidia
-
https://developer.nvidia.com/embedded/community/jetson-projects?sortBy=jetson_community_projects%2Fsort%2Fdate_added%3Adesc
- https://www.jetson-ai-lab.com
- Fédérated Learning (declearn ou Flowers)
- mini-benchmarking
Fernando & C.A. seraient en support pour les aider (sur les aspects outils/infra, etc.). PS: c'est
seulement, indirectement lié, mais P. Martins et J.S. Gomez (Telecom Paris) ont offert aussi de faire des
"TPs" ou démos (éventuellement en amenant des USRPs) de telecoms cellulaires en radio logicielle.
Discussions possibles.
De YOUPI - une plateforme Edge/Fog Computing vers le noeud Computing Continuum SLICES-FR
Lyon, venez exprimez vos besoins !
📅 Jeudi 10 juillet 2025 — 🕒 14:00 - 14:30
Présentation et démonstration de Youpi
Méthodologie de caractérisation des I/O pour le HPC
📅 Jeudi 10 juillet 2025 — 🕒 14:30 - 15:00
Nous proposons une méthodologie de caractérisation automatique de traces I/O permettant de détecter les
motifs récurrents d'accès aux données effectués par des applications HPC. Nous implémentons cette
méthodologie à travers MOSAIC, une librairie Python optimisée pour la catégorisation d'un grand volume de
traces I/O, collectées au niveau système.
La détection et catégorisation des motifs est faite selon 3 axes principaux : la temporalité des accès, la
détection d'accès périodiques et réutilisation de fichiers, ainsi qu'une estimation de l'impact des
requêtes sur les serveurs de métadonnées. En particulier, nous utilisons deux algorithmes de détection des
périodicités pour couvrir une large gamme de motifs périodiques, ainsi qu'un calcul de température de
fichiers pour détecter ceux fréquemments accédés.
Des classes sont assignées aux traces pour rendre compte des différents motifs qu'elles contiennent, et
permettre de discerner les motifs les plus récurrents dans les jeux de données.
Nous utilisons MOSAIC avec deux jeux de données provenant de supercalculateurs pétaflopiques aux
architectures différentes afin d'analyser les motifs les plus courant et les différences visibles entre
les machines.
Cette catégorisation ouvre la porte à différentes optimisation I/O : la création et l'utilisation
d'ordonnanceurs optimisés pour éviter la contention I/O, l'allocation dynamique de buffers et le
préchargement de données pour optimiser l'accés aux données les plus fréquemment utilisées, ainsi que
l'entraînement de modèles de prédiction de charge I/O basée sur les motifs observés en temps réel.
Slices/CorteXlab: déploiement d'un service pour l'évaluation des approches de joint
communication and sensing, dans le contexte du projet européen SNS/Instinct
📅 Vendredi 11 juillet 2025 — 🕒 10:30 - 11:00
Le banc d'essai SLICES/CorteXlab est l'un des bancs d'essai de l'infrastructure de recherche SLICES, dédié
à la recherche sur les communications radio. Avec sa salle blindée de 180 m² qui garantit la
reproductibilité des expériences et ses 40 nœuds radio SDR haut de gamme, SLICES/CorteXlab offre une
configuration unique pour expérimenter les nouvelles techniques radio de pointe.
La plateforme est physiquement située à Lyon, mais on peut y accéder et l'utiliser à distance depuis
n'importe où dans le monde.
La présentation/démonstration vise à montrer comment travailler avec la plateforme SLICES/CorteXlab, en
réalisant des expériences de communication radio et de détection à distance.
Elle consistera à exécuter diverses communications radio, à recueillir et à afficher diverses mesures de
manière interactive, telles que le taux d'erreur sur les bits (BER) ou la réponse en fréquence du canal
entre les appareils de la plateforme. Tout cela en modifiant les conditions de propagation radio à l'aide
d'une surface réflective intelligente (RIS) fournie par Greenerwave dans le cadre du projet européen
SNS/Instinct.
FaaSLoad: Fine-grained Performance and Resource Measurement for Function-as-a-Service
📅 Vendredi 11 juillet 2025 — 🕒 11:00 - 11:30
Cloud computing relies on a deep stack of system layers: virtual machine, operating system, distributed
middleware and language runtime. However, those numerous, distributed, virtual layers prevent any
low-level understanding of the properties of FaaS applications, considered as programs running on real
hardware. As a result, most research analyses only consider coarse-grained properties such as global
performance of an application, and existing datasets include only sparse data. FaaSLoad is a tool to
gather fine-grained data about performance and resource usage of the programs that run on
Function-as-a-Service cloud platforms. It considers individual instances of functions to collect hardware
and operating-system performance information, by monitoring them while injecting a workload. FaaSLoad
helps building a dataset of function executions to train machine learning models, studying at fine grain
the behavior of function runtimes, and replaying real workload traces for in situ observations. This
research software project aims at being useful to cloud system researchers with features such as
guaranteeing reproducibility and correctness, and keeping up with realistic FaaS workloads. Our
evaluations show that FaaSLoad helps us understanding the properties of FaaS applications, and studying
the latter under real conditions.
Utilisation de la réalité virtuelle pour une experience immersive dans l'utilisation de
SLICES-FR
📅 Vendredi 11 juillet 2025 — 🕒 11:30 - 12:00
Translator Cette présentation illustre l'intérêt des technologies immersives telles que la réalité
virtuelle pour permettre à l'utilisateur distant dans une expérience scientifique IoT de mieux prendre
conscience de l'environnement de l'expérience. De plus une partie des résultats de l'expérience
scientifique peut être visualisée en temps réel dans l'environnement virtuel et ainsi constater plus
facilement l'impact des certains phénomènes de propagation radio. Une démonstration sera proposée pour
illustrer le contenu de la présentation.