Logo_ecole_slices   slicefr_1.png  slicesri_color_pos.png  cropped_FR2030_Cloud_Couleur.jpg  logo_pepr_reseaux.jpg   ENS de Lyon

Estimating the environmental impact of AI inference deployment : Large scale VS Edge devices
Djoser Simeu  1@  , Danilo Carastan-Santos  2@  , Laurent Lefèvre  3@  , Denis Trystram  4@  
1 : Laboratoire d'Informatique de Grenoble
Centre National de la Recherche Scientifique : UMR5217, Université Grenoble Alpes, Institut polytechnique de Grenoble - Grenoble Institute of Technology, Centre National de la Recherche Scientifique, Institut Polytechnique de Grenoble - Grenoble Institute of Technology
2 : Laboratoire d'Informatique de Grenoble
Université Grenoble Alpes, Centre National de la Recherche Scientifique, L'Institut National de Recherche en Informatique et e n Automatique (INRIA), Institut National Polytechnique de Grenoble (INPG)
3 : École normale supérieure de Lyon
Université de Lyon
4 : Université Grenoble Alpes
LIG, Data Aware Large Scale Computing (DATAMOVE)
Adresse CS 40700 - 38058 Grenoble cedex -  France

Avec les améliorations considérables des systèmes d'IA appliqués aux tâches de traitement du langage naturel (NLP) que nous avons observées au cours des trois dernières années, nous pouvons également constater que ces nouveaux modèles d'IA qui apprennent à comprendre le langage humain naturel commencent à être déployé à grande échelle (ChatGPT, Gemini, DeepSeek ...). Ces déploiements ne se sont pas faits sans un coût environnemental important, les travaux de Berthelot et al. qui estiment l'impact environnemental du service d'IA générative « Stable Diffusion » montrent que, pour une année d'utilisation, le service produit plusieurs centaines de tonnes d'émissions d'équivalent carbone et a un impact sur l'utilisation de métaux rares équivalent à la production de plusieurs milliers de smartphones. Ce constat couplé à la croissance du déploiement de ce système est alarmant dans notre contexte de défi environnemental. De plus, une étude de Morand et al. a montré que l'impact environnemental du matériel utilisé pour l'entraînement et les déploiements de grands systèmes d'IA n'a cessé d'augmenter de 2013 à 2023. Il existe une alternative possible à ce déploiement d'inférence à grande échelle ; elle consiste à utiliser des appareils périphériques pour gérer le calcul requis par le processus d'inférence. Ce type de matériel consomme moins d'énergie, est moins cher, nécessite moins de communication réseau et peut être placé plus près de l'utilisateur. Ces facteurs peuvent avoir un impact significatif sur l'empreinte environnementale des systèmes déployés. L'objectif de cette étude est de comparer l'impact environnemental de ces systèmes de pointe. Cette étude se concentre sur le déploiement de l'inférence des modèles d'IA, en raison de leur importance considérable dans l'impact environnemental global des systèmes d'IA tout au long de leur cycle de vie. L'importance des déploiements d'inférence est également bien présentée dans l'étude « Stable Diffusion ».

Cet exposé commence par présenter les différences entre les dispositifs de périphérie et les dispositifs à grande échelle, ainsi que la complexité liée à leur différenciation. Nous présentons la méthodologie que nous avons utilisée pour quantifier l'empreinte environnementale de l'inférence pour notre étude ; cette méthodologie est basée sur l'évaluation du cycle de vie des méthodologies de l'état de l'art. Nous présentons ensuite l'ensemble du matériel que nous considérons dans notre étude, basé sur l'ensemble des composants informatiques disponibles sur la plateforme Grid 5000. Nous avons appliqué notre méthodologie à ces composants afin d'observer certaines tendances dans l'impact environnemental de la fabrication du matériel à différentes échelles. Nous décrivons également l'approche que nous avons utilisée pour définir une méthodologie expérimentale dans le but de mesurer le temps d'exécution et la consommation d'énergie de notre matériel.



  • Poster
Chargement... Chargement...