Aller au contenu principal

La data, fondation de votre contexte

8 min de lecture

Et si l’IA, ce n’était pas simplement lancer une requête Claude depuis son terminal ou activer GitHub Copilot dans son IDE favori ? Derrière la magie de la génération de code automatique se cache, avant tout, un travail colossal de documentation et de mise en contexte.

Ce n’est pas un hasard si, version après version, des acteurs comme Anthropic ou Google musclent leurs modèles pour gérer des fenêtres de contexte toujours plus vastes. Cette course aux contextes massifs a une raison structurelle : si n’importe qui peut s’improviser “Vibe Coder”, seuls les experts métier sont capables de documenter suffisamment pour réduire les hallucinations au strict minimum. C’est là que réside le paradoxe moderne : on nous promet une créativité infinie, mais elle repose sur une rigueur quasi chirurgicale.

Evolution de la fenetre de contexte des LLMs (2019-2026) 1K 10K 100K 1M 10M 2019 2020 2021 2022 2023 2024 2025 2026 Tokens (contexte) GPT-2 GPT-3 GPT-3.5 16K GPT-4 GPT-4 32K Claude 2 GPT-4 Turbo Claude 3 Gemini 1.5 Pro Claude 3.5 Gemini 1.5 Pro Claude 4.6 OpenAI Anthropic Google
Evolution de la fenetre de contexte des LLMs (2019-2026)

Après tout, il est facile de “pisser du code”, de brûler des arbres et de consommer de l’eau pour alimenter les serveurs. Mais si 90% de cette production finit à la corbeille, il ne faudra pas s’étonner que ces codeurs du dimanche soient brutalement rattrapés par la réalité du terrain. On risque alors de voir une génération passer de l’euphorie technologique au bore-out systémique, faute de donner du sens à leur travail.

Articles similaires

Écoconception

Empreinte environnementale estimée · Modèle SWD v4 · 442 g CO₂eq/kWh

Poids de la page
Énergie par requête
Budget carbone du build