Aide au référencement

Connaître les bases du référencement.

Accueil > Logiciels > GSiteCrawler générateur de Sitemap

GSiteCrawler générateur de Sitemap

samedi 4 décembre 2021, par Bruno Manach

GSiteCrawler est l’outil indispensable et polyvalent qui va vous permettre de gérer vos fichiers SiteMap : il crawle (établit une liste de toutes les URLs de votre site), vous permet de modifier les attributs de chaque page (fréquence de mise à jour, importance de la page...), génère le fichier .xml normalisé et l’envoi automatiquement par FTP sur le répertoire racine de votre site web.

De plus, il vous permet également de créer et envoyer par FTP également le fichier de vérification Google (un fichier .html spécifique qui prouve que vous êtes bien le propriétaire ou le référenceur du site concerné).

Ce logiciel gratuit permet aux webmasters d’aider les moteurs de recherche à indexer les pages de manière optimale. GSiteCrawler vous aidera à générer le meilleur fichier Google Sitemap pour votre site Web. GSiteCrawler utilise différentes manières pour trouver toutes les pages de votre site Web et peut générer toutes sortes de fichiers, de statistiques et plus encore.

GSiteCrawler

Des tonnes d’options

Le programme offre également des tonnes d’options, de paramètres, d’ajustements et plus encore - si vous voulez faire plus que générer un simple fichier de plan de site. Que diriez-vous d’un fichier de liste d’URL ? un flux RSS ? un fichier ROR ? une page de plan de site HTML ? Tout est possible avec GSiteCrawler.

Fonctionnalités de GSiteCrawler

En général, GSiteCrawler répertorie les URL de vos sites Web, vous permet de modifier les paramètres et de générer des fichiers Google Sitemap. Cependant, le GSiteCrawler est très flexible et vous permet de faire bien plus que "juste" ça.

Le Crawler/robot

  • effectue une analyse textuelle de chaque page, trouvant même des URL en javascript
  • respecte votre fichier robots.txt
  • respecte les balises meta robots pour index/suivre
  • peut fonctionner jusqu’à 15 fois en parallèle
  • peut être limité avec un temps d’attente défini par l’utilisateur entre les URL
  • peut être contrôlé avec des filtres, des interdictions, des modifications d’URL automatiques

A chaque page, le robot

  • vérifie la date (à partir du serveur en utilisant une balise meta date) et la taille de la page
  • vérifie le titre, la description et les balises mots-clés
  • garde une trace du temps nécessaire pour télécharger et parcourir la page

Traduction en fr de GSiteCrawler

Par défaut fonctionne en anglais. Vous pouvez choisir le français en allant dans le menu Options.

stringsfr.INI
Mise à jour de la traduction de GSiteCrawler et de son fichier StringFR.INI

J’ai mis à jour les traductions du fichier StringsFR.INI pour les dernières mises à jour de GSiteCrawler :

  • 1er mars 2007
  • 21 mars 2007

Une fois que vous aurez installé GSiteCrawler, collez ce fichier dans le dossier d’installation, et écrasez le fichier StringsFR.INI déjà existant.

Compatibilité de GSiteCrawler

Version du logiciel gratuit : 1.23 (28/12/2007)
Architectures compatibles : 32bits/64bits
Ce vieux logiciel fonctionne pour Windows versions 95,98, ME, 2000, Windows XP, Windows 2003 Server.
Il ne fonctionne donc pas sous Windows 10. Pour qu’il s’exécute sous Windows 10, procédez comme ci-suit :

  1. Clique droit sur le fichier GSiteCrawler.exe
  2. Cliquez sur Résoudre les problèmes de compatibilité
  3. Choisissez Windows XP

Voir en ligne : GSiteCrawler

Un message, un commentaire ?

modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par un administrateur du site.

Qui êtes-vous ?
Votre message

Pour créer des paragraphes, laissez simplement des lignes vides.