- Accueil
- Facteurs GEO
- Technique
- Accès des robots IA
Accès des robots IA
Verifie les regles robots.txt pour les robots d'exploration IA (GPTBot, ClaudeBot, PerplexityBot, Google-Extended). Les robots bloques ne peuvent pas indexer ni citer votre contenu.
Pourquoi c'est important pour la visibilité IA
Comment nous le mesurons
Comment s'améliorer
- 1
Auditez votre robots.txt pour les blocages spécifiques aux robots IA
Ouvrez votre fichier robots.txt (yourdomain.com/robots.txt) et cherchez les entrées User-agent visant GPTBot, ChatGPT-User, Google-Extended, ClaudeBot, PerplexityBot, anthropic-ai ou Bytespider. Supprimez toute règle Disallow sous ces agents. Une seule ligne `Disallow: /` sous GPTBot vous coûte immédiatement 2 points.
- 2
Supprimez les blocages génériques qui attrapent les robots IA
Un `User-agent: *` avec `Disallow: /` bloque tous les robots, y compris les neuf robots IA vérifiés par l'analyseur. Si vous utilisez des blocages génériques, ajoutez des règles Allow explicites pour chaque robot IA, ou remplacez le joker par des blocages cibles uniquement pour les robots que vous voulez vraiment restreindre.
- 3
Autorisez d'abord les robots critiques si vous devez être sélectif
Si vous n'êtes pas à l'aise avec l'autorisation de tous les robots IA, priorisez les cinq robots critiques : GPTBot, ChatGPT-User, Google-Extended, Googlebot et Bingbot. Autoriser ces cinq-là maintient votre score à 8 ou plus, même si vous bloquez tous les robots non critiques.
- 4
Testez votre robots.txt après les modifications
Utilisez le testeur robots.txt de Google ou chargez simplement yourdomain.com/robots.txt dans un navigateur pour vérifier que vos modifications sont en ligne. Robots.txt est mis en cache par les robots, donc les changements peuvent mettre des heures a se propager. Vérifiez que la section User-agent de chaque robot IA n'existe pas ou contient `Allow: /`.
Exemples de code
Robots.txt qui autorise tous les robots IA (recommande)
User-agent: GPTBot
Allow: /
User-agent: ChatGPT-User
Allow: /
User-agent: Google-Extended
Allow: /
User-agent: Googlebot
Allow: /
User-agent: Bingbot
Allow: /
User-agent: anthropic-ai
Allow: /
User-agent: ClaudeBot
Allow: /
User-agent: PerplexityBot
Allow: /
User-agent: Bytespider
Allow: /Accès sélectif (autoriser les robots critiques, bloquer les autres)
User-agent: GPTBot
Allow: /
User-agent: ChatGPT-User
Allow: /
User-agent: Google-Extended
Allow: /
User-agent: Googlebot
Allow: /
User-agent: Bingbot
Allow: /
User-agent: Bytespider
Disallow: /Questions fréquentes
Que se passe-t-il si je n'ai pas de fichier robots.txt du tout ?
Vous obtenez 10. L'absence de robots.txt signifie que tous les robots sont autorisés par défaut. Cela dit, envisagez d'en ajouter un avec des règles Allow explicites pour la documentation et pour empêcher de futures mises à jour du CMS ou des plugins d'ajouter des blocages involontaires.
Quels robots IA est-il le plus important d'autoriser ?
GPTBot, ChatGPT-User, Google-Extended, Googlebot et Bingbot sont les cinq robots critiques. Chacun coûte 2 points s'il est bloqué, contre 1 point pour les robots non critiques. Ces cinq la couvrent ChatGPT, Google AI Overviews et Bing Copilot -- les trois plus grands moteurs de réponse IA.
Puis-je bloquer certains robots tout en gardant un bon score ?
Oui. Bloquer un ou deux robots non critiques (comme Bytespider) ne coûte que 1 point chacun, ce qui vous laisse à 8 ou 9. Mais bloquer ne serait-ce qu'un robot critique comme GPTBot vous fait tomber a 8, et en bloquer deux vous met a 6, ce qui correspond a un score partiel.
Facteurs associés
Vérifiez votre score GEO
Lancez une analyse gratuite de votre site et découvrez votre score sur les 52 facteurs.
Analyser mon siteFichier llms.txt