Googlebot

Un googler a indiqué sur un forum que, si le robot du moteur avait des soucis pour lire votre fichier robots.txt, le crawl du site s'arrêtait instantanément...

Une information importante, relayée par le site Search Engine Roundtable a été donnée par un googler du nom de Eric Kuan sur un forum d'aide aux webmasters : si votre site dispose d'un fichier robots.txt, que Google le sait et qu'il n'arrive pas à le lire (en d'autres termes, si le code HTTP renvoyé n'est ni 200 ni 404), le robot arrêtera de crawler le site pour éviter de récupérer des pages qu'il ne devrait pas indexer :

If Google is having trouble crawling your robots.txt file, it will stop crawling the rest of your site to prevent it from crawling pages that have been blocked by the robots.txt file. If this isn't happening frequently, then it's probably a one off issue you won't need to worry about. If it's happening frequently or if you're worried, you should consider contacting your hosting or service provider to see if they encountered any issues on the date that you saw the crawl error.

A vous, donc, de vérifier que votre fichier, s'il existe, est bien accessible et renvoie un code 200. S'il n'existe pas (code 404), votre site sera alors en "journées portes ouvertes" pour les robots, sans problème spécifique. Dans les autres cas, un action de votre part sera sans doute nécessaire...

robot spider

Source de l'image : DR