Comité de Suivi Individuel

Directeurs de thèse

Lionel Seinturier, Romain Rouvoy, Clément Quinton

Tristan Coignion

1ère année de doctorat

Environnement

Il faut absolument réduire les impacts

Environnement

Notre situation environnementale a connu de meilleurs jours

L'impact du secteur du numérique augmente:

  • Consommation d'électricité
  • Épuisement des ressources
  • Gaz à effets de serre

Il faut absolument réduire les impacts

IA et Large Language Models

Large Language Model (LLM) :

Technologie d'intelligence artificielle qui génère du texte.

Large Language Models pour le code : LLMs spécialisés dans la génération du code.

Assistant de code : LLM pour le code qui s'intègre dans les outils du développeur

Aide les développeurs à créer des logiciels

IA et Large Language Models

Ma thèse :

Étude de l'impact environnemental des LLMs et des assistants de code.

  • Aider les développeurs à produire du code plus vert
  • Étude du gain de temps
  • Étude de la consommation en ressources des assistants de code
  • Réduire l'impact des assistants de code.

État de l'art - Recherche générales sur les LLMs

  • Qualité du code
  • Complexité du code
  • Sécurité du code
  • Interactions avec des développeurs

=> Beaucoup de benchmarks

État de l'art - Études sur la température

Température : paramètre qui contrôle la créativité du LLM

Une température trop haute mène à :

  • Qualité du code diminuée
  • Code moins sécurisé
  • Plus de chance d'avoir au moins un résultat correct

État de l'art - Études sur la performance

Améliorer la performance de logiciels grâce aux LLMs.

 

Mais aucune étude sur la performance des LLMs ou du code qu'ils génère

Avancement

2 expériences :

  • Expérience "Cold Enough" - Étude des performances du code généré par des LLMs
    • Soumis à ASE, mais rejeté.
  • Expérience 2 - Étude de la consommation énergétique d'un assistant de code

Expérience "Cold Enough"

Étude de la performance du code généré par des LLMs.

 

Génération de solutions à des problèmes de programmation

Peu de variations entre les LLMs.

La température affecte fort la performance du code.

Expérience "Cold Enough" - Retours

Weak Reject

  • Données biaisées - Récitation
     
  • Pas assez de facteurs étudiés
     
  • Objectifs du papier pas assez clairs

Expérience "Cold Enough" - La suite

On va refaire l'expérience, en adressant les limites !

Soumission à IST

Papier bonus sur la récitation ?

Étude de l'énergie consommée par un assistant de code

Motivations

Les IA et la consommation électrique:

Assistants de code (e.g. GitHub Copilot) sont très utilisés par les développeurs

Génération de code faite dans le cloud

La consommation électrique est cachée

Étude de l'énergie consommée par un assistant de code

Motivations

Un participant humain développe sur un projet jouet avec un assistant de code.

On estime la consommation d'énergie de l'assistant à partir de notre IA

Étude de l'énergie consommée par un assistant de code

Présentation

On rejoue les demandes de génération faites par l'assistant, avec une IA qu'on exécute nous même

Expérience en cours de conception

Attente de validation par le COERLE

Étude de l'énergie consommée par un assistant de code

État actuel

Pistes pour la suite

  1. LLMs et performances des logiciels produits
  2. Impact environnemental d'un LLM
  3. Assistants de code écologiques

Formation

  • Futur en entreprise
  • Aisance à l'oral
  • Organisation de la thèse
  • Enseignement

Total de crédits : 49/60

Projet professionnel

Recherche publique

Recherche privée

Ingénierie privée / Entreprenariat

Merci de m'avoir écouté !

CSI D1

By Tristan Coignion

CSI D1

This presentation explores the use of large language models (LLMs) for code generation and the energy consumption of code assistants. It discusses research on LLMs, temperature studies, and presents the findings of the "Cold Enough" experiment. Exciting insights and future directions are shared.

  • 42