En 2026, la question n’est plus seulement “comment remonter sur Google ?” mais “comment être repris par une IA qui répond à la place de Google”. Dans son guide Être cité par les IA, Thomas Leonetti (Apollo Lab) formalise l’AEO (Answer Engine Optimization) comme la discipline qui vise un objectif très concret : devenir une source que ChatGPT, Perplexity ou les AI Overviews choisissent et citent. Le contexte est posé : en 2024, 54% des recherches Google n’auraient généré aucun clic, et la “couche des réponses” a basculé vers les LLM. L’étude de Thomas Leonetti sert de fil conducteur à cette nouvelle approche de la visibilité.
À retenir
- Zero-click : en 2024, 54% des recherches Google n’aboutissaient à aucun clic vers un site externe.
- AEO (Answer Engine Optimization) : optimiser un contenu pour qu’il soit extrait, synthétisé et cité par des moteurs de réponse basés sur des LLM.
- Les moteurs de réponse citent peu : sur les systèmes à accès web (ex. Perplexity), l’IA ne retient souvent que 3 à 5 sources pour répondre.
- RAG (Retrieval Augmented Generation) : pipeline en 8 étapes, de l’ingestion au choix final de la citation (avec chunking, embedding, retrieval, re-ranking).
- Chunking : les pages sont découpées en chunks de 200 à 800 tokens. Une intro longue et vague “pollue” le premier chunk et casse la citabilité.
- SCA (Score de Citabilité AEO, /100) : < 40 = invisibilité structurelle ; viser > 65 pour être cité régulièrement.
- 7 variables (pondérées) : autorité d’entité, clarté sémantique, densité informationnelle, structure extractible, traçabilité factuelle, reconnaissance externe, fraîcheur.
- Benchmarks : une étude avec données originales affiche 88% de probabilité de citation, contre 35% pour un article de blog standard.
- Signaux techniques : Schema.org (Organization/Person), robots.txt ouvert aux crawlers IA, et standard émergent llms.txt.
La visibilité migre : du classement à la citation
On peut continuer à faire du SEO, mais la priorité se déplace : l’utilisateur veut une réponse, pas une liste de liens. Les contenus doivent donc viser la position de “source citée” autant que la première place dans la page de résultats.

La “couche des réponses” a changé de propriétaire
Dans le guide d’Apollo Lab, Thomas Leonetti résume le basculement en une question brutale : “les IA me connaissent-elles, me comprennent-elles, et me citent-elles ?”. Le point n’est pas philosophique, il est mécanique. D’un côté, Google sature de formats “zéro-clic” (extraits enrichis, réponses directes, AI Overviews). De l’autre, des interfaces comme Perplexity, Gemini ou ChatGPT réduisent l’exploration à une synthèse structurée. Le trafic ne dépend plus uniquement de votre position, mais de votre probabilité d’être sélectionné comme source.
Pourquoi la citation vaut plus qu’un clic
Un clic, c’est une visite. Une citation, c’est une recommandation algorithmique, intégrée à la réponse elle-même. C’est un peu comme passer d’un panneau publicitaire (vu puis oublié) à un bouche-à-oreille (retenu puis répété). Quand un LLM cite votre marque, il la place dans sa réponse comme une référence validée — et parfois comme une évidence pour l’utilisateur. Cela change la métrique : la Topical Authority ne se mesure plus seulement à la SERP, mais à votre place dans les réponses générées.
Le piège : écrire pour “plaire” au lecteur, pas pour être trouvé et cité
Les contenus marketing ont un réflexe : introduire, contextualiser, raconter, rassurer… sur 300 mots. Pour un moteur de réponse, ce remplissage est du bruit. Le guide pointe un anti-pattern net : l’introduction générique qui dilue la densité informationnelle et rend le premier segment inutilisable. Votre texte peut être agréable à lire, mais non extractible. Et si l’IA ne peut pas extraire, elle ne peut pas citer.
RAG : comment une page devient une source (ou disparaît)
Pour comprendre la citabilité, il faut regarder le moteur, pas la carrosserie. Le guide d’Apollo Lab détaille la chaîne technique qui transforme une page web en “preuve” dans une réponse IA, étape par étape, du crawl jusqu’à la citation affichée.
Retrieval Augmented Generation : l’usine à réponses en 8 étapes
Dans un pipeline RAG (Retrieval Augmented Generation), le système ingère la page (texte et métadonnées), la segmente, la vectorise, l’indexe, puis exécute un retrieval avant un re-ranking. La génération ne vient qu’après. Et la citation, tout à la fin, comme une sélection éditoriale automatisée. Le HTML réellement utile compte : scripts et CSS sont souvent ignorés, et un contenu derrière login devient de fait beaucoup moins visible.
Chunking : 200 à 800 tokens pour convaincre
Le chunking, c’est le découpage en blocs. Imaginez une page découpée en fiches bristol : si chaque fiche ne tient pas debout seule, elle ne sera jamais retenue. Apollo Lab évoque des chunks de 200 à 800 tokens. Concrètement, une section doit garder son contexte et sa précision sans dépendre des paragraphes précédents. Sinon, le segment perd en pertinence et vous ratez la sélection avant même l’évaluation fine.
Embedding, espace vectoriel et similarité cosinus : le tri se fait par “proximité de sens”
Chaque chunk devient un embedding : un vecteur numérique dans un espace vectoriel multidimensionnel. La requête de l’utilisateur est vectorisée aussi. Le système calcule ensuite une similarité cosinus pour trouver les segments les plus proches sémantiquement. C’est là que la clarté sémantique devient décisive : définition des termes, vocabulaire stable, phrases factuelles. Un contenu flou produit un embedding flou. Et un embedding flou ne remonte pas.
Du “bon contenu” au contenu citable : mesurer avec le SCA, écrire avec RAFT
Pour que l’AEO devienne un “Data-driven SEO” crédible, il faut une mesure et une méthode. Apollo Lab propose une grille : le Score de Citabilité AEO, associé à une structure d’écriture adaptée aux moteurs de réponse.
SCA : un score sur 100 qui force à arbitrer
Le Score de Citabilité AEO (SCA) est présenté comme un modèle composite sur 100 points, construit sur 7 variables pondérées : autorité de l’entité (22 %), clarté sémantique (18 %), densité informationnelle (16 %), structure extractible (16 %), traçabilité factuelle (14 %), reconnaissance externe (10 %) et fraîcheur (4 %). Le guide reste très opérationnel : un SCA < 40 rend une marque “structurellement invisible”, et l’objectif recommandé est > 65 pour devenir une source citée régulièrement.
Autorité d’entité : l’IA retient un nom, pas une page
Le point le plus contre-intuitif pour beaucoup d’équipes contenu est aussi le plus stratégique : les LLM “pensent” en entités nommées (auteur, marque, organisme) plus qu’en URLs. L’autorité de l’entité est décrite comme corrélée à la citation, notamment via des signaux externes : présence dans des sources tierces, mentions qualifiées, et parfois Knowledge Panel côté Google. Votre expertise de marque devient donc un objet que la machine doit pouvoir identifier, relier, puis réutiliser dans ses réponses.
RAFT : une structure d’écriture qui colle au retrieval
Pour l’architecture de contenu, Apollo Lab formalise le modèle RAFT : Réponse (directe, au début, en moins de 100 mots), Argument, Fait (donnée chiffrée et vérifiable) et Transfert (ce que le lecteur doit faire). C’est une écriture “extractible”. Une analogie simple : un texte RAFT, c’est comme une notice de montage bien découpée ; un texte purement narratif, c’est un roman que le moteur n’a ni le temps ni l’intérêt de décortiquer pour trouver la vis n° 12.
Devenir une entité “machine-readable” : signaux, formats, plan d’action
La citabilité n’est pas seulement une affaire de style éditorial. C’est aussi une question d’infrastructure : ce que votre site déclare explicitement aux machines, et comment il organise ses preuves d’expertise.

Schema.org, robots et llms.txt : la couche technique du branding
Le guide insiste sur une idée qui bouscule les habitudes : le branding devient aussi une discipline technique. Implémenter Schema.org (Organization/Person) aide à “accrocher” l’entité dans les graphes de connaissance. Ouvrir le robots.txt aux crawlers IA évite une invisibilité auto-infligée. Et le standard émergent llms.txt fonctionne comme un “robots.txt de l’IA” : un résumé destiné aux crawlers LLM pour comprendre rapidement un site et ses contenus clés.
Mémoire paramétrique et corpus d’entraînement : l’autre bataille (hors RAG)
Tous les systèmes ne consultent pas le web en temps réel. Pour un LLM sans browsing, la “citation” émerge de sa mémoire paramétrique, donc de ce qui a été absorbé dans le corpus d’entraînement. Le guide relie alors la citabilité à la reconnaissance externe : recommandations sur des plateformes tierces, présence dans des listes, discussions dans des communautés. L’objectif n’est pas de “faire du buzz”, mais d’augmenter la probabilité d’exister comme entité reconnue, au-delà de votre propre site.
Benchmarks et méthode : pourquoi les données originales dominent
Apollo Lab publie des benchmarks empiriques parlants : une étude avec données originales affiche 88 % de probabilité de citation, un guide très structuré + FAQ Schema.org 85 %, tandis qu’un article de blog standard tombe à 35 %. Autrement dit, la citabilité ressemble moins à un concours de titres accrocheurs qu’à une compétition de traçabilité factuelle et de structure. Au milieu de la chaîne, le re-ranking reste déterminant : même récupéré, un chunk peut être écarté s’il ne coche pas les signaux de pertinence fine.
Enfin, le guide de Thomas Leonetti propose un plan en 90 jours en trois sprints : d’abord les fondations (thèse de marque, page “About AEO”, Schema.org, robots, llms.txt, test d’entité, calcul SCA), puis la production de contenu expert, puis l’amplification via des tiers. L’AEO apparaît ainsi non comme un “hack” ponctuel, mais comme une méthode d’industrialisation de la citabilité à partir de données mesurables.

















Laisser un commentaire
Vous devez vous connecter pour publier un commentaire.