Concepts
IA Développement

Context Engineering

Origine : Andrej Karpathy, 2024 — popularisé par Oussama Ammar, 2026

Construire des 'pipes' de données et de contexte explicites pour obtenir des résultats qu'aucun prompt one-shot ne peut produire. Le context engineering dépasse le prompt engineering.

Un bon prompt ne suffit plus. Ce qui distingue les résultats médiocres des résultats exceptionnels avec l’IA, c’est rarement la formulation de la question — c’est la qualité et la structure du contexte qui précède la question. Le context engineering est l’art de construire ce contexte systématiquement.


Origine

Andrej Karpathy, co-fondateur d’OpenAI et ex-directeur de l’IA chez Tesla, formule en 2024 : “The hottest new programming language is English.” En 2025, il va plus loin et popularise le terme “context engineering” pour distinguer la pratique professionnelle du simple “prompt engineering”.

Oussama Ammar reprend et amplifie le concept dans un podcast de 2026 : “Le métier du futur ne s’appelle pas ‘prompt engineer’. Il s’appelle ‘context engineer’.”


La théorie

Le contexte avant la question

Un LLM traite tout le texte qu’il reçoit — pas seulement la question finale. Le contexte fourni avant la question détermine en grande partie la qualité de la réponse : rôle assigné à l’IA, exemples, contraintes, données de référence, format attendu, historique de la conversation.

La théorie de l’information appliquée à l’IA

Claude Shannon (1948) : la valeur d’un signal dépend du rapport signal/bruit de son environnement. Un bon contexte = rapport signal/bruit maximal pour le modèle. Trop d’information non-pertinente noie le signal. Trop peu d’information oblige le modèle à compléter par ses propres biais.

RAG : la preuve empirique

Lewis et al. (Meta AI, 2020) formalisent le Retrieval-Augmented Generation : injecter des documents pertinents dans le contexte d’un LLM améliore ses performances de façon dramatique, souvent plus que l’augmentation de la taille du modèle. La qualité du contexte prime sur la puissance brute.

Le CLAUDE.md comme exemple concret

Les équipes qui travaillent professionnellement avec Claude Code utilisent un fichier CLAUDE.md : contexte du projet, conventions de code, règles métier, exemples. Ce fichier est du context engineering — il transforme un assistant générique en expert du projet spécifique.


En pratique

Les niveaux du context engineering :

  1. Contexte de rôle : “Tu es un expert en fiscalité française, tu réponds en bullet points, tu cites tes sources”
  2. Contexte de données : injections de documents, bases de connaissances, historiques (RAG)
  3. Contexte de contraintes : format de sortie, longueur, style, ce qu’il faut éviter
  4. Contexte d’exemples : few-shot learning — montrer des exemples input/output attendus
  5. Contexte de tâche : la question précise, formulée après tout le reste

Un context engineer construit des “pipes” : des workflows qui assemblent automatiquement ces couches de contexte avant chaque interaction avec l’IA. Ce n’est plus du prompting ad hoc — c’est de l’architecture d’information.


Nuances et limites

Le context engineering peut devenir contre-productif si le contexte est trop long ou trop verbeux — l’attention des LLMs n’est pas uniforme sur toute la fenêtre de contexte. Les informations cruciales doivent être au début ou à la fin, pas noyées au milieu.

Il existe aussi un risque de sur-ingénierie : parfois un prompt simple suffit. Le context engineering est pertinent pour des tâches complexes et répétées — pas pour des questions ponctuelles.

Sources : Lewis et al. (2020). Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks. Meta AI · Karpathy, A. (2024). Twitter/X · Shannon, C. (1948). A Mathematical Theory of Communication · Ammar, O. (2026). Podcast

Concepts