Prompt engineering : le guide complet pour bien parler aux LLM
Le prompt engineering n'est pas une mode passagère ni un don mystique : c'est l'art d'adresser un grand modèle de langage de manière à obtenir des réponses précises, fiables et reproductibles. En 2026, c'est devenu une compétence aussi structurante que la maîtrise de SQL il y a vingt ans.
Pourquoi le prompt engineering compte (encore)
Avec l'arrivée de GPT-5, certains ont prédit la disparition du prompt engineering — au prétexte qu'un modèle plus puissant devrait comprendre tout, tout de suite. La réalité est inverse : plus un modèle est capable, plus la formulation du prompt influence le résultat. Un prompt vague produit une réponse vague ; un prompt structuré produit une réponse de niveau expert.
Le prompt engineering est donc avant tout une discipline de spécification : décrire avec précision ce qu'on attend, contraindre la forme de la réponse, et orienter le modèle vers les bons réflexes cognitifs. C'est moins un truc à apprendre qu'une habitude à acquérir.
Anatomie d'un bon prompt
Un prompt efficace comporte généralement quatre éléments, dans cet ordre :
- Le rôle ou la posture du modèle — "Tu es un éditeur expérimenté en presse économique."
- La tâche — "Lis le brouillon ci-dessous et propose trois reformulations pour le titre."
- Les contraintes — "Maximum 8 mots chacun. Ton informatif, pas accrocheur. Pas de point d'exclamation."
- Le format de sortie — "Réponds en liste numérotée, sans commentaire."
Cette structure n'est pas dogmatique mais elle force à clarifier l'intention. Beaucoup de demandes ratent parce qu'un de ces quatre éléments est implicite — et donc interprété de travers par le modèle.
Les techniques de base
Zero-shot et few-shot
Le zero-shot consiste à donner une instruction sans exemple. Le few-shot, à fournir deux ou trois exemples du résultat attendu. Pour les tâches non triviales ou les formats inhabituels, le few-shot améliore drastiquement la cohérence — pour environ trois lignes de prompt en plus.
Chain-of-thought (CoT)
Demander au modèle de raisonner étape par étape avant de répondre. Sur les problèmes mathématiques, logiques ou multi-étapes, le CoT améliore les performances de 15 à 40 points. Avec GPT-5, le raisonnement est largement spontané, mais la formulation "Raisonne étape par étape avant de conclure" reste utile sur les cas vraiment complexes.
Self-consistency
On exécute plusieurs fois le même prompt avec une température non nulle, on récupère plusieurs chaînes de raisonnement, et on retient la réponse majoritaire. Coût multiplié par n appels, gain typique de 5 à 12 points sur les benchmarks de raisonnement.
Tree-of-thoughts
Variante plus sophistiquée : on explore plusieurs branches de raisonnement, on élague celles qui ne mènent nulle part, on conserve les plus prometteuses. Particulièrement efficace sur les casse-têtes formels et les problèmes d'optimisation.
Self-refine
On demande au modèle de produire une réponse, puis de la critiquer comme un éditeur le ferait, puis de la réécrire. Marche très bien sur le code et l'écriture longue, où la première version est rarement la meilleure.
Dix prompts système éprouvés
1. Le critique constructif
"Tu es un éditeur expérimenté. Lis le texte ci-dessous et identifie les trois plus gros problèmes de fond. Pour chacun, propose une reformulation concrète. Ne flatte pas, ne sois pas vague."
2. Le rendre ennuyeux
"Réécris ce texte en supprimant tout effet stylistique, toute formule frappante. Vise un ton de note de service." — utile pour tester la solidité du fond.
3. Le steelman
"Présente l'argument inverse de celui que tu viens de défendre, dans sa version la plus forte." — excellent pour les essais argumentés.
4. Le budget de mots
"Réponds en exactement 80 à 100 mots. Pas un de plus." — force la concision.
5. Le décompose et requestionne
"Avant de répondre, formule trois sous-questions auxquelles il faut répondre pour traiter la question principale. Réponds à chacune. Puis synthétise."
6. Le rejette l'évidence
"Identifie les hypothèses cachées dans la question. Avant de répondre, signale lesquelles te semblent douteuses."
7. Le format strict JSON
"Réponds en JSON strict avec ce schéma : { question, answer, confidence: 0..1, sources: string[] }. Pas de texte hors JSON."
8. Le décode l'intention
"Avant de répondre, reformule en deux phrases ce que tu penses que l'utilisateur veut vraiment savoir. Puis réponds."
9. Le cite-toi en confiance
"Pour chaque affirmation factuelle, indique entre crochets ton niveau de confiance : [haut], [moyen], [bas]."
10. L'explique à un public spécifique
"Explique ceci à un ingénieur logiciel qui ne connaît rien à la finance. Utilise des analogies avec le code, pas avec la vie quotidienne."
Anti-patterns à éviter
- "Sois créatif" ou "Sois professionnel" — adjectifs vagues qui produisent du contenu standardisé.
- "Tu es un expert mondialement reconnu en…" — la flatterie n'améliore plus le résultat depuis GPT-4. Au mieux inutile, au pire pousse à des affirmations péremptoires.
- Plusieurs questions dans un même prompt — le modèle traite mal les batchs, mieux vaut découper.
- Trop de contraintes contradictoires — "court mais détaillé", "formel mais chaleureux" — choisissez.
- Ne jamais vérifier la sortie — un prompt qui marche sur trois exemples peut échouer sur le quatrième. Évaluez sur cinquante cas minimum.
Prompt engineering pour les agents
Pour les agents IA, le prompt système est encore plus crucial : il définit la persona de l'agent, ses outils, ses contraintes de sécurité, son comportement face à l'incertitude. Quelques règles d'or :
- Listez explicitement les outils disponibles et leur usage attendu.
- Précisez quelles actions sont irréversibles et nécessitent validation humaine.
- Indiquez ce que l'agent doit faire en cas d'erreur ou d'ambiguïté.
- Donnez un objectif clair et un critère d'arrêt mesurable.
Outils utiles
Pour développer un prompt en production, plusieurs outils méritent l'attention :
- Helicone, Langfuse, Braintrust — observabilité et évaluation systématique.
- Promptfoo — tests automatisés de prompts sur jeux d'exemples.
- Le estimateur de tokens de chat-gpt-5.ai pour calibrer le coût.
- Le comparateur LLM pour évaluer le même prompt sur plusieurs modèles.
Pour continuer
Lisez nos analyses détaillées sur ChatGPT, GPT-5 et les autres modèles LLM. L'index des dépêches regroupe les articles récents sur les techniques avancées de prompt, les évolutions des modèles et les retours d'expérience.