Comité de Suivi Individuel
Directeurs de thèse
Lionel Seinturier, Romain Rouvoy, Clément Quinton
Tristan Coignion
1ère année de doctorat


Environnement
Il faut absolument réduire les impacts

Environnement
Notre situation environnementale a connu de meilleurs jours
L'impact du secteur du numérique augmente:
- Consommation d'électricité
- Épuisement des ressources
- Gaz à effets de serre
Il faut absolument réduire les impacts
IA et Large Language Models
Large Language Model (LLM) :
Technologie d'intelligence artificielle qui génère du texte.
Large Language Models pour le code : LLMs spécialisés dans la génération du code.
Assistant de code : LLM pour le code qui s'intègre dans les outils du développeur
Aide les développeurs à créer des logiciels
IA et Large Language Models
Ma thèse :
Étude de l'impact environnemental des LLMs et des assistants de code.
- Aider les développeurs à produire du code plus vert
- Étude du gain de temps
- Étude de la consommation en ressources des assistants de code
- Réduire l'impact des assistants de code.
État de l'art - Recherche générales sur les LLMs
- Qualité du code
- Complexité du code
- Sécurité du code
- Interactions avec des développeurs
=> Beaucoup de benchmarks

État de l'art - Études sur la température
Température : paramètre qui contrôle la créativité du LLM
Une température trop haute mène à :
- Qualité du code diminuée
- Code moins sécurisé
- Plus de chance d'avoir au moins un résultat correct

État de l'art - Études sur la performance
Améliorer la performance de logiciels grâce aux LLMs.
Mais aucune étude sur la performance des LLMs ou du code qu'ils génère


Avancement
2 expériences :
- Expérience "Cold Enough" - Étude des performances du code généré par des LLMs
- Soumis à ASE, mais rejeté.
- Expérience 2 - Étude de la consommation énergétique d'un assistant de code
Expérience "Cold Enough"
Étude de la performance du code généré par des LLMs.
Génération de solutions à des problèmes de programmation
Peu de variations entre les LLMs.
La température affecte fort la performance du code.

Expérience "Cold Enough" - Retours
Weak Reject
- Données biaisées - Récitation
- Pas assez de facteurs étudiés
- Objectifs du papier pas assez clairs
Expérience "Cold Enough" - La suite
On va refaire l'expérience, en adressant les limites !
Soumission à IST
Papier bonus sur la récitation ?
Étude de l'énergie consommée par un assistant de code
Motivations

Les IA et la consommation électrique:
Assistants de code (e.g. GitHub Copilot) sont très utilisés par les développeurs
Génération de code faite dans le cloud
La consommation électrique est cachée
Étude de l'énergie consommée par un assistant de code
Motivations

Un participant humain développe sur un projet jouet avec un assistant de code.
On estime la consommation d'énergie de l'assistant à partir de notre IA
Étude de l'énergie consommée par un assistant de code
Présentation


On rejoue les demandes de génération faites par l'assistant, avec une IA qu'on exécute nous même

Expérience en cours de conception
Attente de validation par le COERLE
Étude de l'énergie consommée par un assistant de code
État actuel


Pistes pour la suite
- LLMs et performances des logiciels produits
- Impact environnemental d'un LLM
- Assistants de code écologiques

Formation
- Futur en entreprise
- Aisance à l'oral
- Organisation de la thèse
- Enseignement
Total de crédits : 49/60

Projet professionnel
Recherche publique

Recherche privée
Ingénierie privée / Entreprenariat
Merci de m'avoir écouté !

CSI D1
By Tristan Coignion
CSI D1
This presentation explores the use of large language models (LLMs) for code generation and the energy consumption of code assistants. It discusses research on LLMs, temperature studies, and presents the findings of the "Cold Enough" experiment. Exciting insights and future directions are shared.
- 42