Standard

Sitemap

Fichier (souvent XML) listant les URL d'un site pour aider les crawlers à découvrir et prioriser les pages.

Publié February 1, 2025 · Mis à jour February 15, 2025

Définition

Un sitemap (généralement sitemap.xml) liste les URL d’un site avec des métadonnées optionnelles (lastmod, priority). Les moteurs et les crawlers IA s’en servent pour découvrir les pages et planifier le crawl. À référencer dans robots.txt et à garder à jour.

Voir aussi

Lié : robots.txt, llms.txt, Crawl budget.