31 mars 2015
Referenceur.be
Pourquoi s’assurer que Googlebot puisse crawler rapidement les URLs de votre site web?
C’est dans le forum #google Webmaster Help que John Mueller est intervenu en ce début de semaine pour aider un webmaster qui se demandait pourquoi les pages de son site étaient « temporairement indisponibles » dans l’outil « Explorer comme Google ».
John Mueller a indiqué que c’était certainement dû à une lenteur du serveur qui empêchait Googlebot de crawler rapidement les pages du site web.
Pour plus d’infos à ce sujet, rendez-vous sur Referenceur.be: http://www.referenceur.be/google-crawler-rapidement-pages-site-web-16180.html