La classe « robots-nocontent » est-elle pertinente ?
Décidemment, il semble que les moteurs de recherche demandent une participationde plus en plus active des webmasters dans l’amélioration de leurs pages de résultats : alors que Google demande déjà aux webmasters de juger de la valeur des liens sur leurs sites via l’attribut « nofollow » (contredisant au passage sa devise « make pages for users, not for search engines« ), Yahoo propose désormais d’empêcher l’indexation de certaines parties du contenu grâce à la classe « robots-nocontent ».
Sebastien Billard trouve l’initiative plutôt maladroite : « d’abord, on ne sait pas quelles seront les conséquences d’une balise mal fermée : l’intégralité du contenu sera-t-elle alors considérée comme étant à ne pas indexer? »
D’autre part, c’est le travail des moteurs que de décider quel contenu est intéressant, et lequel ne l’est pas. Ce qui est intéressant pour les utilisateurs l’est à priori pour les moteurs, alors pourquoi limiter l’indexation de contenus pourtant visibles par les utilisateurs ?
Enfin, c’est potentiellement une occasion suplémentaire de manipuler les résultats et de tromper les utilisateurs. En voici un exemple (non testé cependant) :
Lire la suite :