Internship presentations

by Ulysse-Néo Lartigaud, Axel Martin & Hywel Mathieu
07/03/2024
DiverSE Coffee
Rennes, France

Abstract

  • Ulysse-Néo Lartigaud

    Optimisation des processus de modification de code assistés par LLMs et renforcement de cette approche par l’intégration de modèles “Vision-Langage” (VLM). Je présenterai les différentes méthodes de modification de code par LLMs que nous avons exploré avec Mathieu Acher ainsi que les moyens trouvés pour rendre la modification de code plus fiable.

  • Axel Martin

    Mon sujet consiste à reproduire et approfondir un article qui dit que le plus populaire module de jeu d'échecs, Stockfish, serait inconsistant dans ses analyses sur des positions qui sont fondamentalement les mêmes. Je suis donc en python et je fais des statistiques sur les données que je récupère en demandant des milliers d’analyses à Stockfish à différentes profondeurs, et j’ai commencé à regarder son fonctionnement un peu plus en détail. En terme de résultats, dans les mêmes conditions que l’article original (positions générées aléatoirement, faible profondeur) j’ai des résultats similaires, cependant dans des conditions qui semblent plus pertinentes (positions tirées de parties réelles, profondeur correcte) Stockfish est bien plus consistant.

  • Hywel Mathieu

    J'étudie l’efficacité de la génération de tests multi langages à l’aide de LLMs pour une fonction donnée. J'évalue si la traduction et la fusion de ces tests dans un langage cible améliore la qualité du set de tests par rapport à une simple génération dans le langage cible. L’objectif est de déterminer si l’utilisation de ce côte polyglotte des LLMs permet d’obtenir des sets de tests plus exhaustifs dans le langage ciblé.