43 votes

Comment trouver les liens brisés sur un site web

Quelles techniques ou quels outils sont recommandés pour trouver les liens brisés sur un site web ?

J'ai accès aux fichiers journaux, et je pourrais donc les analyser à la recherche d'erreurs 404, mais je voudrais quelque chose d'automatisé qui suive (ou tente de suivre) tous les liens sur un site.

0 votes

La meilleure solution consiste à créer un petit robot qui parcourt l'ensemble de votre site et enregistre les résultats. Je l'ai fait pour tester mes sites avant leur déploiement et cela fonctionne très bien.

1 votes

Il y a aussi HTTrack qui peut faire le travail assez bien.

0 votes

Si vous êtes intéressé par la recherche de liens morts, y compris la prise en compte du fait que l'identificateur de fragment est vivant, alors considérez github.com/gajus/deadlink .

36voto

jrudolph Points 3726

Pour l'extension Chrome, il y a hexomètre

Voir LinkChecker pour Firefox.

Pour Mac OS, il existe un outil Intégrité qui peut vérifier les URLs pour les liens brisés.

Pour Windows, il y a Link Sleuth de Xenu .

3 votes

Le Link Sleuth de Xenu semble être le ticket idéal.

0 votes

L'intégrité est géniale ! Merci de partager.

0 votes

Je suis derrière checkerr.org

30voto

wjbrown Points 91

Je viens de trouver un wget script qui fait ce que vous demandez.

wget --spider  -o wget.log  -e robots=off --wait 1 -r -p http://www.example.com

Le mérite en revient à cette page .

2 votes

Une version 32 bits de wget pour Windows peut être trouvé sur SourceForge aquí . (Les liens vers d'autres binaires GNU pour Windows se trouvent à l'adresse suivante aquí ) . Le site page de manuel para wget peuvent être trouvés aquí .

2 votes

Le problème avec cette méthode est que l'interprétation du journal n'est pas des plus faciles. Vous pouvez rechercher 404 et pour broken link mais l'endroit où se trouve le lien est clair.

0 votes

Très bonne phrase ! En fin de compte, le fichier journal était assez facile à interpréter avec un outil adéquat ( Console.app sur macOS par exemple)

11voto

Paul Reiners Points 3484

1 votes

Moi aussi. Si vous cochez Check linked documents recursively et laisser le recursion depth vide, il semble récurer à l'infini sur le domaine spécifié.

6voto

Voir linkchecker outil :

LinkChecker est un validateur de sites Web gratuit, sous licence GPL. LinkChecker vérifie les liens dans les documents web ou les sites web complets.

3voto

Peter Hilton Points 10580

Soit vous utilisez un outil qui analyse vos fichiers journaux et vous donne un rapport sur les "liens brisés" (par ex. Analogique ou Google Outils pour les webmasters ), ou exécutez un outil qui explore votre site web et signale les liens brisés (par ex. Vérificateur de liens du W3C ).

0 votes

Je suis ici en 2020 et il y a des outils en ligne assez cool, rapides et perspicaces disponibles qui aident à trouver non seulement les liens brisés mais tout autre mauvais pour le personnel UX et SEO. Envisagez d'essayer https://seofy.io o siteguru

Prograide.com

Prograide est une communauté de développeurs qui cherche à élargir la connaissance de la programmation au-delà de l'anglais.
Pour cela nous avons les plus grands doutes résolus en français et vous pouvez aussi poser vos propres questions ou résoudre celles des autres.

Powered by:

X