Aller au contenu principal

Ceci est une version archivée de « Bref. J'ai geeké. », telle qu'elle existait du 25 février 2026 au 27 février 2026.
Voir la version actuelle →

Bref. J'ai geeké.

Version du

Structure de l'information

Structure de l'information

Le SEO traditionnel optimise pour les moteurs de recherche. Le GEO (Generative Engine Optimization) optimise pour les modèles de langage. La frontière entre les deux s'estompe vite. Ce blog met en œuvre les deux.

Chaque article est composé de chapitres indépendants, chacun avec son propre slug, son titre et son contenu. Cette granularité n'est pas anodine : elle permet aux moteurs d'indexation (humains ou IA) de cibler précisément une section plutôt que d'ingérer un monolithe.

Les métadonnées sont explicites et systématiques : titre, description, date de publication, date de mise à jour, tags, slug. Rien n'est implicite. Chaque article est une entrée structurée dans un schéma Zod validé à la compilation. Si une métadonnée manque, le build échoue.

Ce que les moteurs voient

Sitemap XML

Un sitemap dynamique liste toutes les URLs du blog avec leur date de dernière modification (lastmod). Les articles multi-chapitres génèrent autant d'entrées que de chapitres. Cela donne aux crawlers une carte exacte du contenu, fraîcheur comprise.

RSS

Un flux RSS standard expose les articles avec titre, description et date de publication. Plusieurs agrégateurs et agents le consomment directement.

JSON-LD

Chaque page article embarque un bloc schema.org/Article en JSON-LD :

{
  "@context": "https://schema.org",
  "@type": "Article",
  "headline": "Titre de l'article",
  "author": { "@type": "Person", "name": "Alexandre Dumont" },
  "datePublished": "2026-02-25",
  "keywords": "architecture, geo, seo"
}

C'est le langage natif des moteurs de recherche enrichis et des Knowledge Graphs. Un signal structuré, pas du texte libre à interpréter.

Open Graph

Chaque page génère ses balises Open Graph complètes : titre, description, image, type, locale. Les images OG sont générées statiquement à la compilation au format WebP (1920×1080) via Satori + Resvg. Pas de rendu à la volée, pas de dépendance runtime.

Ce que les LLMs voient

robots.txt

Le robots.txt autorise explicitement les principaux crawlers IA :

User-Agent: ClaudeBot
Allow: /

User-Agent: GPTBot
Allow: /

User-Agent: PerplexityBot
Allow: /

Ce n'est pas qu'une formalité. C'est une déclaration d'intention : ce contenu est fait pour être lu et référencé.

llms.txt

Le blog expose un fichier /llms.txt. Un standard émergent proposé par Jeremy Howard qui décrit le site en markdown structuré à destination des LLMs. Il contient la biographie de l'auteur, les grandes thématiques couvertes, et l'index des articles avec des liens directs vers les versions .md.

# Alexandre Dumont

Architecte de solution web...

## Articles

- [Architecture du blog](/article/architecture-blog.../contenu.md)
- [La fin des artisans du web](/article/la-fin-des-artisans.../contenu.md)

C'est une carte de navigation conçue pour un modèle de langage, pas pour un navigateur.

Export markdown propre

Chaque chapitre est accessible à son URL avec l'extension .md : /article/[slug]/[chapitre].md. Le contenu est sanitisé avant livraison : les imports JavaScript sont supprimés, les composants JSX convertis en markdown standard, les chemins d'images résolus en URLs absolues. Un LLM qui accède à cette URL reçoit du markdown propre, sans bruit syntaxique.

La recherche comme signal de pertinence

La recherche sémantique (détaillée dans le chapitre suivant) fait plus que permettre de retrouver du contenu : elle matérialise les relations de sens entre articles. Les embeddings stockés dans Cloudflare Vectorize sont également utilisés pour calculer les articles similaires affichés en bas de chaque page via similarité cosinus entre vecteurs.

Le résultat : un graphe de contenu implicite, navigable aussi bien par un lecteur humain que par un agent qui explore le site de lien en lien.

Ce que ça change concrètement

Un agent qui interroge ce blog peut :

  • Lire le llms.txt pour une vue d'ensemble structurée
  • Naviguer vers un article via son URL .md et recevoir du markdown exploitable
  • Comprendre la structure temporelle et thématique via le sitemap et les métadonnées
  • Identifier l'auteur et ses compétences via le JSON-LD

Ce n'est pas du SEO défensif. C'est une architecture de contenu pensée pour un web où les agents sont des lecteurs à part entière.

Révisions

  1. minor

    Ajout du système de révisions d'articles (R2, archivage, pages statiques).

  2. initial

Écoconception

Empreinte environnementale estimée · Modèle SWD v4 · 442 g CO₂eq/kWh

Poids de la page
Énergie par requête
Budget carbone du build