Les 7 couches du web agentique : le guide complet
J'ai posé la même question à GPT-4o et à Claude : "Quel consultant SEO contacter à Rennes pour un audit ?"
GPT-4o m'a donné 5 noms avec assurance. Benoît Maufils, Tanguy Mahé, Yannick Soufflet — aucun de ces consultants n'existe. Il a aussi recommandé une agence de Mulhouse et Digitaleo (qui fait du marketing local, pas du SEO). Cinq réponses, zéro fiable.
Claude a pris l'approche inverse : aucun nom. "Cherchez sur LinkedIn", "Contactez la CCI de Rennes". Honnête, mais inutile.
Deux agents, la même question, deux échecs différents. L'un invente, l'autre esquive. Et dans les deux cas, les vrais consultants SEO de Rennes sont invisibles — parce que leurs sites ne parlent pas aux agents IA.
En creusant, j'ai compris qu'il y a 7 couches qui déterminent si un agent IA peut trouver, comprendre, et interagir avec un site web. Ce n'est pas une checklist marketing. C'est une pile de protocoles — chaque couche s'appuie sur les précédentes.
Comment on en est arrivé là
Pendant 30 ans, le web a été construit pour un seul type de visiteur : l'humain avec un navigateur. HTML pour l'affichage, CSS pour la mise en forme, JavaScript pour l'interactivité. Les moteurs de recherche ont appris à crawler ce HTML, et le SEO est devenu l'art d'optimiser pour ces crawlers.
Depuis fin 2025, un deuxième type de visiteur est apparu. Les agents IA — ChatGPT, Claude, Perplexity, Gemini — ne se contentent plus de répondre à des questions. Ils naviguent, comparent, recommandent. Et bientôt, ils achètent.
Le problème : ces agents ne lisent pas le HTML comme Google. Ils ont besoin de structures différentes, de permissions différentes, d'interfaces différentes.
C'est le même schéma que le web mobile en 2008. À l'époque, 95% des sites n'étaient pas responsive. Aujourd'hui, 95% des sites ne sont pas "agent-ready". L'histoire se répète — mais plus vite.
Le web agentique n'est pas une tendance. C'est un fork du web, comme le mobile l'a été. Les sites qui ne s'adaptent pas ne disparaissent pas — ils deviennent invisibles sur un canal de trafic qui va exploser.
La pile, vue d'ensemble
Imaginez 7 couches empilées, du fondamental au plus avancé :
- Sémantique — Schema.org / JSON-LD
- Contrôle d'accès — robots.txt pour crawlers IA
- Découverte — llms.txt
- Livraison de contenu — Markdown for Agents, MAKO
- Action — WebMCP
- Commerce — UCP, paiements agents
- Citation — Être mentionné par les LLMs
Pas de raccourci. Un site sans Schema.org correct aura du mal à être cité par un LLM, même avec un llms.txt parfait.
Couche 1 — Données structurées
Schema.org / JSON-LD
MatureLe standard le plus ancien de cette pile — et le plus sous-utilisé par les PME françaises. Les balises JSON-LD disent aux agents ce que vous êtes et ce que vous faites, sans qu'ils aient à interpréter votre HTML.
Le mécanisme est simple. Quand un agent IA cherche "meilleur consultant SEO à Rennes", il ne lit pas votre page comme un humain. Il cherche des entités structurées : un LocalBusiness avec un areaServed, un Person avec une jobTitle, des Review avec des ratingValue.
Ce n'est pas un facteur de ranking. C'est l'infrastructure qui dit à l'agent "qui possède quoi" avant même d'analyser le contenu.
Sans ces données, vous êtes un blob de texte parmi des millions. Avec, vous êtes une entité identifiable.
→ Les types qui comptent : Organization, LocalBusiness, Product, FAQPage, Person
→ Action : ajoutez un Organization dans le <head> de votre page d'accueil. 10 minutes.
Couche 2 — Contrôle d'accès
robots.txt AI Directives
Actionnable maintenantLe robots.txt existe depuis 1994. Depuis 2024, il a un nouveau job : gérer les crawlers IA.
Six crawlers à connaître : GPTBot (OpenAI), ClaudeBot (Anthropic), PerplexityBot, Bytespider (ByteDance), Google-Extended (Gemini), Applebot-Extended (Apple Intelligence).
La majorité des sites français n'ont aucune directive pour ces crawlers. Par défaut, c'est autorisé. Mais c'est subi, pas choisi.
Ce n'est pas anodin. Le jour où vous voudrez bloquer un crawler (par exemple Bytespider qui alimente TikTok), il sera trop tard — vos données auront déjà été ingérées dans le training set.
→ Action : décidez explicitement qui vous autorisez. L'absence de directive n'est pas une stratégie.
User-agent: GPTBot
Allow: /
User-agent: ClaudeBot
Allow: /
User-agent: Bytespider
Disallow: /
Couche 3 — Découverte
llms.txt
~10% d'adoptionProposé par Jeremy Howard en septembre 2024. Un fichier Markdown à la racine de votre site qui résume votre activité pour les LLMs. Un pitch deck pour agents IA.
Anthropic, Cloudflare, Docker, HubSpot en ont un. En France, quasiment personne.
La vérité inconfortable : aucune grande plateforme IA n'a officiellement confirmé lire ces fichiers. Mais le coût de création est tellement faible — 15 minutes — que ne pas en avoir est un choix difficile à justifier.
Nous avons le nôtre sur agenticseo.fr. Allez voir — c'est le mécanisme en action.
→ Action : créez un fichier /llms.txt à la racine. Nom, description, liens vers vos pages clés en Markdown. Moins de 500 mots.
Couche 4 — Livraison de contenu
Cloudflare Markdown for Agents
Production (fév. 2026)Lancé le 12 février 2026. Quand un agent envoie le header Accept: text/markdown, Cloudflare convertit automatiquement votre HTML en Markdown propre, au edge. 80% de tokens en moins pour le même contenu.
Le mécanisme : les agents IA consomment des tokens pour lire une page. Une page HTML classique = ~16 000 tokens. La même page en Markdown = ~3 000 tokens. C'est la différence entre remplir la fenêtre de contexte d'un agent avec une seule page ou lui en laisser assez pour comparer 5 concurrents.
Claude Code et OpenCode envoient déjà ce header. Si votre site est derrière Cloudflare (plans Pro+), c'est un toggle à activer. Gratuit.
Les headers de réponse incluent x-markdown-tokens (estimation du nombre de tokens) et des signaux de permission : Content-Signal: ai-train=yes, search=yes, ai-input=yes.
Deux autres signaux à connaître :
Cloudflare AI Index — un index opt-in, distinct du Markdown for Agents. Les sites qui s'inscrivent exposent leur contenu directement aux agents via les API et le serveur MCP de Cloudflare. Les agents découvrent votre contenu sans passer par Google. C'est un canal de distribution parallèle.
MAKO (open-source, Apache 2.0) — va plus loin que le Markdown : YAML frontmatter structuré + actions machine-readable + liens sémantiques. Revendique 93% de réduction de tokens. Plugin WordPress et SDK TypeScript disponibles.
→ Action : si vous êtes sur Cloudflare, activez Markdown for Agents (10 minutes). Sinon, surveillez MAKO et le AI Index.
Couche 5 — Action
WebMCP
Chrome 146 betaLe passage de "l'agent lit votre menu" à "l'agent réserve une table". WebMCP est une proposition W3C qui permet aux agents d'exécuter des actions sur un site, pas seulement de le lire.
Deux mécanismes :
→ JavaScript : navigator.modelContext.registerTool() — vous enregistrez des outils que l'agent peut invoquer programmatiquement
→ HTML déclaratif : <form toolname="book_table"> — vos formulaires existants deviennent des outils pour agents, sans changer votre backend
Chrome 146 (beta) le supporte derrière un flag expérimental. La version stable est attendue vers mars-avril 2026.
C'est tôt. Mais les sites qui préparent le terrain maintenant auront un avantage de premier arrivé quand le standard se stabilisera (pensez aux premiers sites responsive en 2009 — avant que Google n'en fasse un facteur de ranking en 2015).
→ Action : identifiez 2-3 actions clés sur votre site (réservation, devis, recherche produit). Préparez les schémas. L'implémentation technique viendra.
Couche 6 — Commerce agent
UCP + Stripe ACS + X402
ProductionLa couche la plus récente et la plus disruptive. Les agents IA peuvent acheter des produits et services — de la découverte au paiement — sans intervention humaine.
Trois protocoles, trois approches :
UCP (Universal Commerce Protocol) — Google + Shopify + Walmart + 20 partenaires. API REST pour le parcours d'achat complet : découverte → checkout → paiement → post-achat. Déjà actif dans Google AI Mode et l'app Gemini.
Stripe ACS (Agentic Commerce Suite) — des Shared Payment Tokens : des identifiants de paiement scopés et limités dans le temps. Le mécanisme est élégant : l'agent initie l'achat avec la méthode de paiement enregistrée du client, sans jamais voir le numéro de carte. Le moteur anti-fraude Radar a été ré-entraîné spécifiquement pour les "acheteurs logiciels" (pas de mouvement de souris, pas d'empreinte device — les signaux classiques de fraude ne marchent plus).
X402 (Coinbase) — le protocole HTTP 402 "Payment Required" comme primitive de paiement native au niveau du protocole HTTP. Des wallets agents non-custodiaux avec des limites de dépense programmables et des caps par session.
Le pont crucial : Stripe ACS supporte automatiquement UCP. Ce n'est pas anodin — un marchand qui intègre Stripe ACS devient compatible agents IA sans effort supplémentaire.
→ Action : si vous vendez en ligne, surveillez Stripe ACS. Pour le B2B, mettez au minimum un Product ou Service en JSON-LD avec un prix et une URL d'achat — c'est la porte d'entrée pour un agent de commerce.
Couche 7 — Citation LLM
Citation par les LLMs
Métrique émergenteLa couche finale. Votre marque est-elle mentionnée quand quelqu'un pose une question à ChatGPT, Claude, ou Perplexity ? Et si oui — ce qu'il dit de vous est-il juste ?
C'est fondamentalement différent du SEO classique. Ce n'est pas une question de position 1-10. C'est cité ou pas cité. Ce n'est pas une meta description que vous contrôlez. C'est ce que le LLM dit de vous — et vous n'avez pas la main dessus directement.
En creusant, j'ai identifié 5 facteurs qui influencent la citation :
→ Données structurées (couche 1) — les LLMs extraient des entités, pas du texte brut
→ Autorité du domaine — backlinks, ancienneté, expertise démontrée
→ Contenu unique et factuel — les LLMs privilégient les sources primaires
→ Mentions tierces — si d'autres sites parlent de vous, le LLM le sait
→ Fraîcheur — contenu récent = plus de chances d'être dans les données récentes
Le test est simple. Demandez à ChatGPT et Claude : "Quel est le meilleur [votre service] à [votre ville] ?" Si vous n'êtes pas mentionné, les 6 couches précédentes sont votre plan d'action.
Par où commencer
Si vous partez de zéro :
| Priorité | Couche | Effort | Ce que ça change | |----------|--------|--------|-----------------| | 1 | Schema.org JSON-LD | 1-2h | L'agent sait qui vous êtes | | 2 | robots.txt IA | 15 min | Vous choisissez qui vous crawle | | 3 | llms.txt | 30 min | L'agent a votre pitch | | 4 | Markdown for Agents | 10 min (si CF) | L'agent lit votre site en 3 000 tokens au lieu de 16 000 | | 5 | Citation LLM | 30 min | Vous savez où vous en êtes | | 6 | WebMCP | Veille | Vous préparez le terrain | | 7 | Commerce agent | Selon activité | Les agents achètent chez vous |
Les couches 1 à 4 sont actionnables cette semaine. Même pour un site vitrine. Les couches 5 à 7 demandent plus de maturité — mais ce sont elles qui définiront l'avantage concurrentiel dans 2-3 ans.
Le parallèle qui compte
Le web mobile a mis 10 ans (2007-2017) à créer Uber, Instagram, et tout l'écosystème app. Le web agentique est en train de créer une rupture similaire — mais plus rapide, parce que l'infrastructure existe déjà.
Ce n'est pas une prédiction. Les protocoles sont en production. Les crawlers tournent. Les agents achètent.
La question n'est pas "est-ce que les agents IA vont influencer mon trafic ?" C'est "est-ce que mon site leur parle ?"
Votre site est-il pret pour les agents IA ?
Testez gratuitement en 30 secondes. Score + 3 recommandations.
Tester mon siteVotre site est-il pret pour les agents IA ?
Testez gratuitement en 30 secondes. Score + 3 recommandations.
Tester mon siteVeille Agentic SEO
1 email/semaine. Pas de spam.