optimisation,seo,site,web,internet,référencement,organique,référencement organique,ipluscom

L’optimisation d’un site à travers un exemple simple

  1. L’optimisation d’un site à travers un exemple simple
    1. L’optimisation des pages
      1. L’optimisation du code de la page index
      2. L’optimisation des autres pages du site
    2. L’optimisation de l’ensemble du site
      1. La structure des liens du site
      2. Les plans du site
        1. Le plan HTML
        2. urllist.txt
        3. Le protocole Sitemap
        4. Un Sitemap pour les sites multilangues
      3. Le fichier robots.txt
      4. Le référencement crucial du site
        1. Utilisation des outils pour web masters des moteurs de recherche pour soumettre le Sitemap
        2. Autres référencements
    3. Conclusion

Supposons que nous ayons la page d’accueil dont le texte a été optimise au préalable dont le texte a été optimise au préalable et 4 autres pages qui seraient: Nos spécialités végétariennes, Le plat du jour italien, Recettes de cuisine, le Menu du jour.

L’optimisation des pages

L’optimisation du code de la page index

Procédons d’abord à la vérification du code et à sa correction si nécessaire avec HTML Tidy. Voici l’interface du chargement du document dans HTML tidy et ensuite le code corrigé. Cette page a été validée par le Markup Validator du W3C.

L’optimisation des autres pages du site

Maintenant que nous avons une page modèle bien optimisée au code valide, nous n’aurons plus qu’à jouer avec les variables, comme le contenu et les méta tags. Il y aura beaucoup moins de corrections à faire sur le code.

La page index / accueil qui a déjà été créée  a servi de modèle pour la création des autres pages. Cette page a également été validée. Ce modèle servira à créer toutes les autres pages.

L’optimisation de l’ensemble du site

La structure des liens du site

Simplifiez la navigation du site. Suivez une structure logique des liens en créant des dossiers descriptifs par catégorie, puis placez-y les fichiers. Stoppez les « spiders » d’archiver les fichiers à problèmes. Évitez d’avoir des pages orphelines. Vérifiez régulièrement vos liens avec le service Link Checker du W3C ou une bonne extension. Les liens comme ceux des fichiers exclus par le robots.txt qui sont inaccessibles ne seront pas analysés, mais le Link checker donnera toujours la raison de l’inaccessibilité. Les CMS ont des extensions verifier les liens cassés.

Retrouvez ici les résultats de l’analyse des liens du site du restaurant.

Ne sortez pas du domaine dès la page index. Si vous y êtes obligé, ne dépasser pas 2 liens et choisissez bien les cibles par rapport au contenu de la page.

Les plans du site

Vous aurez besoin d’au moins 2 plans de site, l’un pour les visiteurs du site et l’autre pour les robots des moteurs de recherche. Les plans suivants peuvent être générés sur plusieurs sites ou avec les extensions et les logiciels d’optimisation de sites. Les plans de sites peuvent être également testés et validés sur Google Search Console, Bing Webmaster tools, Yandex, etc.

Le plan HTML

C’est une page du site regroupant tous les liens importants du site en un ordre hiérarchique, très utile aux visiteurs humains comme aux robots qui les suivront.

urllist.txt

http://www.restaurantitalienrouen.com/
http://www.restaurantitalienrouen.com/histoire-du-papillon-bleu.html
http://www.restaurantitalienrouen.com/nos-services.html
http://www.restaurantitalienrouen.com/les-mentions-legales.html
http://www.restaurantitalienrouen.com/contactez-nous.html
http://www.restaurantitalienrouen.com/le-plan-du-site.html
http://www.restaurantitalienrouen.com/nos-specialites-vegetariennes.html
http://www.restaurantitalienrouen.com/le-plat-du-jour-italien.html
http://www.restaurantitalienrouen.com/recettes-de-cuisine.html
http://www.restaurantitalienrouen.com/le-menu.html
http://www.restaurantitalienrouen.com/index.html

La validation de urllist.txt se présente comme ceci.

Schema validating with XSV 3.1-1 of 2007/12/11 16:20:05
Target: file:/usr/local/XSV/xsvlog/tmpPKCCq_uploaded (Real name: sitemap.xml)
docElt: {http://www.sitemaps.org/schemas/sitemap/0.9}urlset
Validation was strict, starting with type [Anonymous]
schemaLocs: http://www.sitemaps.org/schemas/sitemap/0.9 -> http://www.sitemaps.org/schemas/sitemap/0.9/sitemap.xsd
The schema(s) used for schema-validation had no errors
No schema-validity problems were found in the target

Schema resources involved
Attempt to load a schema document from http://www.sitemaps.org/schemas/sitemap/0.9/sitemap.xsd(source: schemaLoc) for http://www.sitemaps.org/schemas/sitemap/0.9 , succeeded

Le protocole Sitemap

Créez également « un protocole Sitemap », toujours écrit avec un « S » majuscule pour faire la différence,  est un plan en format XML, par souci de compatibilité avec les grands moteurs de recherches Google, Bing, Yandex, etc,qui permettra aux moteurs de recherches de parcourir plus facilement le site. Il regroupera les URLs en mentionnant leur importance relative (priorité), la date de la dernière mise à jour ainsi que leur fréquence.

Vous pouvez également créer un fichier texte enregistré sous urllist.txt et contenant les URLs que vous voudriez voir indexées.

Comme exemples, voyez le XML Sitemap du site du restaurant créé chez xml-sitemaps.com avec les paramètres suivants :
Voici l’exemple du site du restaurant avec les paramètres suivant :
– priorité relative calculée automatiquement
– dernière modification: heure affichée par le serveur
– et fréquence hebdomadaire de mise à jour

Retrouvez ici l’interface du générateur de plan de site avec le choix des paramètres préférés.

Le plan généré en format xml se trouve ci-dessous.

sitemap.xml

<?xml version= »1.0″ encoding= »UTF-8″?>
<urlset
      xmlns= »http://www.sitemaps.org/schemas/sitemap/0.9″
      xmlns:xsi= »http://www.w3.org/2001/XMLSchema-instance »
      xsi:schemaLocation= »http://www.sitemaps.org/schemas/sitemap/0.9
            http://www.sitemaps.org/schemas/sitemap/0.9/sitemap.xsd »>
<!– created with Free Online Sitemap Generator www.xml-sitemaps.com –>

<url>
  <loc>http://www.restaurantitalienrouen.com/</loc>
  <lastmod>2011-08-16T14:37:49+00:00</lastmod>
  <changefreq>weekly</changefreq>
  <priority>1.00</priority>
</url>
<url>
  <loc>http://www.restaurantitalienrouen.com/histoire-du-
papillon-bleu.html</loc>
  <lastmod>2011-08-16T14:37:49+00:00</lastmod>
  <changefreq>weekly</changefreq>
  <priority>0.80</priority>
</url>
<url>
  <loc>http://www.restaurantitalienrouen.com/nos-services.html</loc>
  <lastmod>2011-08-16T14:37:49+00:00</lastmod>
  <changefreq>weekly</changefreq>
  <priority>0.80</priority>
</url>
<url>   <loc>http://www.restaurantitalienrouen.com/les-mentions-
legales.html</loc>  <lastmod>2011-08-16T14:37:49+00:00</lastmod>
  <changefreq>weekly</changefreq>
  <priority>0.80</priority>
</url>
<url>
  <loc>http://www.restaurantitalienrouen.com/contactez-nous.html</loc>
  <lastmod>2011-08-16T14:37:49+00:00</lastmod>
  <changefreq>weekly</changefreq>
  <priority>0.80</priority>
</url>
<url>
  <loc>http://www.restaurantitalienrouen.com/le-plan-du-site.html</loc>
  <lastmod>2011-08-16T14:37:49+00:00</lastmod>
  <changefreq>weekly</changefreq>
  <priority>0.80</priority>
</url>
<url>
  <loc>http://www.restaurantitalienrouen.com/nos-specialites-
vegetariennes.html</loc>
  <lastmod>2011-08-16T14:37:49+00:00</lastmod>
  <changefreq>weekly</changefreq>
  <priority>0.80</priority>
</url>
<url>
  <loc>http://www.restaurantitalienrouen.com/le-plat-du-jour-
italien.html</loc>
  <lastmod>2011-08-16T14:37:49+00:00</lastmod>
  <changefreq>weekly</changefreq>
  <priority>0.80</priority>
</url>
<url>
  <loc>http://www.restaurantitalienrouen.com/recettes-de-
cuisine.html</loc>
  <lastmod>2011-08-16T14:37:49+00:00</lastmod>
  <changefreq>weekly</changefreq>  <priority>0.80</priority>
</url>
<url>
  <loc>http://www.restaurantitalienrouen.com/le-menu.html</loc>
  <lastmod>2011-08-16T14:37:49+00:00</lastmod>
  <changefreq>weekly</changefreq>
  <priority>0.80</priority>
</url>
<url>
  <loc>http://www.restaurantitalienrouen.com/index.html</loc>
  <lastmod>2011-08-16T14:37:49+00:00</lastmod>
  <changefreq>weekly</changefreq>
  <priority>0.80</priority>
</url>
</urlset>

Le Sitemap est validé avant d’être publié. Trouvez les résultats de validation par le XML Schema Validator du W3C:ci dessous.

Si vous avez du contenu indexé par Google mais non accessible sur les mobiles, créez un « Mobile Sitemap » de Google avec les URL ne pointant que vers le contenu mobile.

Exemple de mobilesitemap.xml

  <?xml version= »1.0″ encoding= »UTF-8″ ?>
 <urlset xmlns= »http://www.sitemaps.org/schemas/sitemap/0.9″
  xmlns:mobile= »http://www.google.com/schemas/sitemap-mobile/1.0″>
    <url>
   <loc>http://mobile.restaurantitalienrouen.com/horaires.html</loc>
        <mobile:mobile/>
    </url>
</urlset>

Si vous avez plusieurs sitemaps, vous pouvez creer un « sitemap index », un simple fichier text pour y inclure les adresses de tous les sitemaps.

Voici un exemple Sitemap index:

<?xml version= »1.0″ encoding= »UTF-8″?>
<sitemapindex xmlns= »http://www.sitemaps.org/schemas/sitemap/0.9″>
<sitemap>
    <loc>http://www.restaurantitalienrouen.com/sitemap1.xml.gz</loc>
      <lastmod>2011-07-31T23:15:21+00:00</lastmod>
   </sitemap>
   <sitemap>
    <loc>http://www.restaurantitalienrouen.com/sitemap2.xml.gz</loc>
      <lastmod>2011-07-31T23:15:21+00:00</lastmod>
   </sitemap>
</sitemapindex>

N’oubliez pas de valider tous les Sitemaps avant de les déposer dans le dossier racine du site.

Un Sitemap pour les sites multilangues

Un site présenté en francais, en anglais et en portugais par exemple aura un Sitemap supplémentaire comme ceci:

<?xml version= »1.0″ encoding= »UTF-8″?>
<urlset xmlns= »http://www.sitemaps.org/schemas/sitemap/0.9″
xmlns:xhtml= »http://www.w3.org/1999/xhtml »>

<url>
<loc>https://adsafricaall.com/en/</loc>
<xhtml:link
rel= »alternate »
hreflang= »fr »
href= »https://adsafricaall.com/fr/ »
/>
<xhtml:link
rel= »alternate »
hreflang= »pt »
href= »https://adsafricaall.com/pt/ »
/>
<xhtml:link
rel= »alternate »
hreflang= »en »
href= »https://adsafricaall.com/en/ »
/>
</url>

<url>
<loc>https://adsafricaall.com/fr/</loc>
<xhtml:link
rel= »alternate »
hreflang= »en »
href= »https://adsafricaall.com/en/ »
/>
<xhtml:link
rel= »alternate »
hreflang= »pt »
href= »https://adsafricaall.com/pt/ »
/>
<xhtml:link
rel= »alternate »
hreflang= »fr »
href= »https://adsafricaall.com/fr/ »
/>
</url>

<url>
<loc>https://adsafricaall.com/pt/</loc>
<xhtml:link
rel= »alternate »
hreflang= »fr »
href= »https://adsafricaall.com/fr/ »
/>
<xhtml:link
rel= »alternate »
hreflang= »en »
href= »https://adsafricaall.com/en/ »
/>
<xhtml:link
rel= »alternate »
hreflang= »pt »
href= »https://adsafricaall.com/pt/ »
/>
</url>

</urlset>

Le fichier robots.txt

Utilisez le « The Robots Exclusion Protocol », un fichier texte, robots.txt, pour indiquer aux robots d’exploration de sites, les fichiers que ne voulez pas faire indexer. Certains de ces robots cherchent d’abord ce fichier avant de commencer l’indexation. Utilisez le robots.txt pour les empêcher d’indexer des fichiers qui ne sont d’aucun intérêt pour les visiteurs ou d’arrêter des robots précis à toucher à certains fichiers. Le fichier robots.txt est dans la plupart des cas généré automatiquement par les logiciels d’optimisation. Le fichier est a déposer dans le dossier racine du site.

Voici un exemple de robots.txt simple:

User-agent: *
Disallow:

Explication:

« User-agent: *  » Ces instructions s’adressent à tous les robots
« Disallow: /  » ne touchez à rien.

« Disallow: /dossier précis/ » ne pas toucher à « dossier précis ».
Pour donner des directives à un robot particulier, il faudra le mentionner : 

Exemple:

User-agent: GigaBlast
Disallow: /dossier/

Pour éviter par exemple l’indexation de « logs » et « images » par les robots, écrivez votre robots.txt comme ceci:

User-agent: *
Disallow: /logs/
Disallow: /images/

Vous pouvez créer un dossier et y placer tous les fichiers que vous ne voudriez pas voir dans les résultats de recherches et demander aux robots de ne pas les indexer. Si vous ne voulez pas que les spiders suivent les liens d’une page précise, ajoutez la balise méta suivante à son code dans l’entête du document « Head » entre <head>… et …</head>.

<meta name= »robots » content= »nofollow »>

Remarque: Un robot malveillant programmé pour un but autre que la simple indexation des pages, comme par exemple la collecte d’information comme des adresses e-mail, peut choisir d’ignorer le fichier robots.txt.

Vous pouvez créer un fichier robots.txt et faire la validation requise en ligne sur Google Search ConsoleBing outils pour Webmasters et sur plusieurs autres sites. Ajoutez l’adresse du sitemap au fichier robots.txt et déposez le après validation dans le dossier racine du site.

Le robots.txt valide du site du restaurant

User-agent: *
Disallow: /cgi/
Disallow: /logs/

L’adresse du robots.txt:

http://www.restaurantitalienrouen.com/robots.txt et le résultat de la validation: Retrouvez ici la validation du robots.txt.

Le référencement crucial du site

Utilisation des outils pour web masters des moteurs de recherche pour soumettre le Sitemap

Créez des comptes chez les principaux moteurs de recherche, Google Search Console, Bing Webmaster tools, Yandex, Baidu outils pour webmasters pour référencer le site, savoir ce qu’on attend d’un site et faciliter son l’administration. Ces moteurs de recherche vous permettent aussi de tester facilement vos robots.txt et de soumettre vos Sitemaps.

Les  procédures sont similaires chez ces moteurs de recherche: Ajout du site, vérification en suivant les étapes proposées, soumission ensuite des Sitemaps testés en indiquant leurs emplacements.

Autres référencements

Si vous mettez votre contenu fréquemment à jour, pensez à commencer un blog qui publiera automatiquement un flux RSS (Really Simple Syndication) de votre contenu, utilisé pour les mises à jour fréquentes.

Créez des comptes chez les réseaux sociaux majeurs de votre préférence. Pensez à une distribution automatique de votre contenu sur ces réseaux. Là également, les extensions sont d’une grande aide. Tout ceci est assez facilté sur une platforme comme WordPress.

Conclusion

Le site exemple étudié ici est simple mais très bien optimisé pour un  référencement naturel. Mais sachez qu’un site Internet même bien optimisé au départ a besoin d’une gestion constante. Le CMS facilitent la tâche. Après chaque mise à jour, vérifiez que les plans de site et le fichier robots.txt sont encore conformes au contenu du site. Les bonnes extensions gèrent ceci parfaitement. Lisez régulièrement les rapports d’analyses et surtout ceux concernant les liens. Surveillez les mots-clés qui ont été utilisés par les visiteurs pour trouver votre site et faites les ajustements nécessaires dans les meta tags et le contenu visible.