Aller au contenu principal
Retour au glossaire

Glossaire

robots.txt

Technique

robots.txt

robots.txt est un fichier standard qui indique aux robots d'exploration quelles pages ils peuvent ou ne peuvent pas crawler. Pour le GEO, ce fichier détermine si les bots IA peuvent accéder à votre contenu.

Pourquoi c'est important pour le GEO

Un robots.txt mal configuré peut bloquer GPTBot, ClaudeBot ou PerplexityBot, rendant votre site invisible pour les recherches IA. C'est la première vérification de tout audit GEO.

Comment optimiser

Configuration recommandée pour GEO:

User-agent: GPTBot
Allow: /

User-agent: ClaudeBot
Allow: /

User-agent: anthropic-ai
Allow: /

User-agent: PerplexityBot
Allow: /

User-agent: Google-Extended
Allow: /