Je travaille sur ce gros site web et je veux le mettre en ligne avant qu'il ne soit complètement terminé...
Je travaille localement et la base de données devient très volumineuse. J'ai donc voulu télécharger le site web et continuer à travailler sur le serveur, mais en permettant aux gens d'entrer, afin que je puisse faire des tests.
La question est de savoir si cela est bon pour le référencement, je veux dire, il ya beaucoup de choses liées au référencement qui sont incomplètes . Par exemple : il n'y a pas de friendly URLs, pas de sitemap, pas de fichier .htacces, beaucoup de sections 'en construction'...
Google va-t-il me pénaliser pour toujours ? Comment cela fonctionne-t-il ? Google indexe et obtient la structure du site une seule fois ou est-il constamment mis à jour et vérifie-t-il les changements ? L'utilisation de User-agent: * Disallow:
dans le fichier robots.txt empêche totalement Google de l'indexer ? Puis-je modifier le fichier robots.txt ultérieurement et faire en sorte que Google l'indexe à nouveau ? Que recommandez-vous ?