Bonjour,

Je m'intéresse aux règles SEO en ce moment,
j'ai regardé le tutoriel SEO sur Grafikart :
https://www.grafikart.fr/tutoriels/divers/seo-referencement-naturel-594

Et j'ai fais des recherches ailleurs, mais j'ai toujours quelques questions,
si vous voulez bien m'aider, je bloque un peu.

1)
Dans un fichier robots.txt, est-ce qu'il y a des pages typique à mettre en 'Disallow' ?
Je pense aux pages de 'login', 'inscription', 'recherche', (d'autres encore ?)

2)
Si je mets des fichiers en 'Disallow' dans mon 'robots.txt',
est-ce que je dois, NE PAS mettre, dans mon 'sitemap.xml', les urls qui correspondent aux fichiers en 'Disallow' du 'robots.txt' ?

D'après ce que j'ai cru comprendre,
peut importe ce que j'ai dans 'robots.txt',
je met TOUTES mes urls possible dans 'sitemap.xml'

3)
Il faut modifier la balise < title > pour qu'elle soit différente sur chaque pages du site.
Je me demandais si on peut répéter le nom du site dans cette balise. Ex :

  • page 1 | mon site
  • page 2 | mon site

(ou pas) :

  • page 1
  • page 2

4)
Je me demandais aussi s'il faut que chaque page ai sa propre 'description' (balise < meta name="description" content="[...]" >).
L'article en lien ci-dessous, est censé y répondre mais je n'ai pas bien compris.
https://www.searchenginejournal.com/matt-cutts-answers-every-page-needs-unique-meta-description/78133/

extrait :

You can either have unique metatag descriptions, or you can choose not to put any metatag description at all. Definitely don’t have duplicate metatag descriptions.

J'ai cru comprendre qu'on PEUT :

  • NE PAS du tout utiliser de balise description
  • Mettre une description différente pour chaque page

on NE peut PAS :

  • Utiliser la même description sur toutes les pages du site (ce que je fais actuellement)

Je ne suis pas sur d'avoir bien compris.

Merci pour votre aide.

2 réponses


Huggy
Réponse acceptée

Bonjour SLK
pour le 1) c'est du bon sens, toutes les pages d'administration et les pages accessibles en étant connecté doivent être bloquées
ça évite que le spider perde du temps mais certains moteurs s'en contrefiche

pour le 2) les moteurs passent sur tout ce qu'ils trouvent en suivant les liens, ils stockent tout mais n'indexent pas forcément.
Il faut faire la différence entre l'exploration et l'indexation.
le sitemap c'est surtout utile pour indiquer des page orphelines qui ne pourraient jamais être découvertes.
Donc pas utile de mettre les pages "disallow" dans le sitemap, il ne faut pas faire perdre du temps au spider.

pour le 3) Google recherche des mot-clés dans le titre pour savoir s'il est cohérent avec le contenu, rajouter le nom du site n'aide pas vraiment et ne s'affiche pas dans les résultats . Mais comme le titre s'affiche dans l'onglet du navigateur, ça peut aider à faire connaitre le nom du site dans le cas où on y arrive par des lien extérieurs (voir le côté pratique plutot que le côté SEO).
On peut mettre le nom en premier ou en second, sachant que la longueur visible est très imitée.
Même si le nom du site n'apparait pas, le favicon rapelle le site.

4) oui il faut une meta description cohérente et 'propre', elle sera affichée dans la page de résultats (la serp)
il faut bien sûr mettre une description la plus précise possible, avec des mot-clés qu'on retrouvera dans le contenu de la page

pour info, en Chine Google est quasi inconnu (<3%) en dessous de Bing, Baidu est premier
Yandex est pas mal non plus.

SLK
Auteur

Salut Huggy,

super tout est très clair !

Merci beaucoup !