Outils IA pour la recherche

RETEX après 2 ans d’utilisation

Louis Libat

2026-05-05

Mon interêt pour les outils IA

  • Intérêt croissant depuis 2023 suite à un stage chez les Pompiers de Paris
  • Utilisation régulière depuis 2024
  • Codex, Copilot, Claude Code, NotebookLM, etc.

Au programme d’aujourd’hui

  • Courte introduction
  • Activité 1 — NotebookLM pour la revue de littérature et plus
  • Activité 2 — Agents pour le codage et le debugging
  • Activité 3 — Gestion de la mémoire des projets
  • Conclusion and discussion

Important

  1. Un ordinateur : Si possible, apportez votre ordinateur pour les activités pratiques. Pas de panique, on fera aussi des démos.
  2. Travail en binôme : Comme vous le souhaitez, travaillez avec un voisin ou en solo.

Pourquoi ce talk?

Pain points

  • Trop de papiers, pas assez de temps pour faire le tri
  • Un bug de code caché dans 10k lignes de code
  • Idée claire sous la douche, floue au clavier
  • TikZ est un maître cruel et impitoyable

Promesse honête

  • IA ne remplacera pas le jugement
  • IA ne prouvera pas votre théorème (encore) (Axiom Math 2026)
  • IA peut enlever une énorme friction

My dream AI assistant

Tour de table : Quels outils ? Quels usages ?

  • Quels outils IA utilisez-vous déjà ?
  • Quels usages vous intéressent le plus ?

Word cloud with traits of AI agents: infinite energy, zero shame, uneven reliability

Imaginez les outils d’agents IA comme un chercheur junior avec une énergie infinie, zéro honte, et une fiabilité inégale.

Qu’est-ce qu’un LLM (1) ?

Un LLM (Large Language Model) est un modèle entraîné sur une quantité pharaonique de texte et de code pour prédire le prochain token \(P(\text{token}_t\mid \text{token}_{<t})\) :

Neural network illustration, representing LLMs

Qu’est-ce qu’un LLM (2) ?

Qu’est-ce que ça veut dire en pratique?

  • Machines à faire de la complétion de texte.
  • PAS des bases de données, ni des garanties de vérité (OpenAI 2025).
  • Vachement utile quand ils sont connectés à des outils (fichiers, code, recherche, tests).
  • Prompt précis -> Meilleurs résultats

Neural network illustration, representing LLMs

Chat mode vs Agent mode

Chat mode

  • Un prompt -> une réponse
  • Idéal pour explications et brainstorming
  • Exemple : “Expliquez Gibbs-Thomson en termes simples.”

Chat mode illustration, one prompt one answer

Agent mode

  • Lire fichiers/docs, éditer du code, exécuter des tests, patch
  • Exemple pour le codage : “Scan repo, implement a new function, keep API, add tests.”

Agent mode illustration, multi-step interaction

Tour d’horizon des outils disponibles

Landscape of generative AI tools, including Codex, GitHub Copilot, Claude Code, OpenCode, Gemini, Mistral, OpenRouter

Tour d’horizon des outils disponibles

Activité 1: NotebookLM pour la revue de littérature et plus

NotebookLM (Google) permet de télécharger des documents et de poser des questions à leur sujet. Il peut être utilisé pour la revue de littérature, la synthèse, et plus encore.

URL : NotebookLM

Screenshot of NotebookLM interface, showing a document upload and question-answering interface

Activité 2: Agents pour le code

  • Agents de codage (Codex, Copilot, Claude Code) via IDE ou terminal
  • Instructions de projet (AGENTS.md) pour guider les agents
  • Compétences (SKILL.md) pour les tâches récurrentes
  • Sous-agents pour les tâches parallèles (ex: un agent pour l’implémentation, un autre pour les tests)

Iterations par modele et scenario

Comparatif simple des iterations et tokens consommes par scenario.

Pourquoi on atteint les limites ?

  • Cache misses
  • Context bloat
  • Mauvais modèle / mauvais effort
  • Mauvais format d’entrée

Le vrai levier : protéger le préfixe caché

  • Choisir outils/MCP au début
  • Choisir modèle au début
  • Ne pas changer /model en cours
  • Garder AGENTS.md / CLAUDE.md courts
  • Déplacer le détail vers MATH.md, TESTING.md, SKILL.md

Hygiène de session

  • /clear entre deux sujets
  • /compact après une tâche ou vers 50–80%
  • /rewind si la session part mal
  • Subagents pour lecture massive, logs, PDF, recherche fichiers

Ne laissez pas l’agent relire votre repo entier à chaque question.

Choisir le bon modèle

  • Petit modèle : grep, renommage, formatage
  • Moyen modèle : exploration code, tests, synthèse locale
  • Gros modèle : architecture, compromis numériques

L’effort se règle par prompt.

Mauvais format = tokens brûlés

  • Web : texte / accessibility tree plutôt que screenshots
  • PDF : pdftotext avant images
  • Gros repo : carte de code / graphe plutôt que lecture brute

Activité 3: Gestion de la mémoire des projets

  • Problème : Faible mémoire à long term des LLMs
  • ex : 400k tokens pour Codex 5.3 High
  • Solution : Fichiers de projet (AGENTS.md, MATH.md, SKILL.md) pour stocker les faits, règles, théorèmes, procédures
  • Solution : LLMWiki + Obsidian pour une mémoire de projet plus riche et interconnectée

Screenshot of Obsidian interface, showing a graph view of interconnected notes

Quelques points clés

  • Notion de Context Window
  • Taille des modeles et coût : choisir le bon outil pour la bonne tâche
  • De l’importance du prompt pour guider les agents
  • Validation humaine indispensable pour éviter les erreurs et les “hallucinations”
Illustration of context window, showing a sliding window of tokens that the model can attend to

Discussion

  • Quels sont les avantages et les limites de ces outils dans votre pratique ?
  • L’importance de la validation humaine : comment éviter les “hallucinations” et garantir la fiabilité des résultats ?
  • Confidentialité et éthique : comment gérer les données sensibles et les implications éthiques de l’utilisation de l’IA dans la recherche ?
  • De l’utilisation de ces outils en commun.