Article

31 mars 2015
Referenceur.be

Pourquoi s’assurer que Googlebot puisse crawler rapidement les URLs de votre site web?

C’est dans le forum Webmaster Help que John Mueller est intervenu en ce début de semaine pour aider un webmaster qui se demandait pourquoi les pages de son site étaient « temporairement indisponibles » dans l’outil « Explorer comme Google ».

John Mueller a indiqué que c’était certainement dû à une lenteur du serveur qui empêchait Googlebot de crawler rapidement les pages du site web.

Pour plus d’infos à ce sujet, rendez-vous sur Referenceur.be: http://www.referenceur.be/google-crawler-rapidement-pages-site-web-16180.html