82 votes

Ignorer les URL dans robot.txt avec des paramètres spécifiques ?

J'aimerais que google ignore les URL comme celle-ci :

http://www.mydomain.com/new-printers?dir=asc&order=price&p=3

Toutes les URL qui ont les paramètres dir, order et price doivent être ignorées mais je n'ai pas d'expérience avec Robots.txt.

Une idée?

30voto

Shredder Points 11513

Vous pouvez bloquer ces paramètres de chaîne de requête spécifiques avec les lignes suivantes

 Disallow: /*?*dir=
Disallow: /*?*order=
Disallow: /*?*p=

Ainsi, si une URL contient dir= , order= ou p= n'importe où dans la chaîne de requête, elle sera bloquée.

3voto

Tiggerito Points 1301

Enregistrez votre site Web avec Google WebMaster Tools. Là, vous pouvez indiquer à Google comment gérer vos paramètres.

Configuration du site -> Paramètres d'URL

Les pages contenant ces paramètres doivent indiquer qu'elles doivent être exclues de l'indexation via la balise meta robots. par exemple

Prograide.com

Prograide est une communauté de développeurs qui cherche à élargir la connaissance de la programmation au-delà de l'anglais.
Pour cela nous avons les plus grands doutes résolus en français et vous pouvez aussi poser vos propres questions ou résoudre celles des autres.

Powered by:

X