> Comment s’assurer de la bonne accessibilité de son site ? L’accessibilité du site est le premier prérequis de l’analyse technique. Vérifier l’accessibilité de son site, c’est s’assurer que les robots des principaux outils de recherche peuvent accéder à l’intégralité des contenus stratégiques et les indexer.
> Quel impact a le temps de chargement ? La performance d’un site au niveau de sa disponibilité et de son temps de chargement est un élément que Google surveille de manière fine. Analyser et monitorer la disponibilité de votre site et le temps de chargement de vos pages est important dans la mesure où ces indicateurs influencent les résultats proposés par les outils de recherche.
> Quels sont les points clés à checker au niveau de votre CMS ? Le back-office, s’il est mal construit/mal paramétré, peut être un véritable frein SEO ralentissant l’implémentation d’éléments de base.
3. Synodiance
Spécialiste du référencement naturel
› Agence indépendante créée en 1999
› Search, Link et Performance
› 35 collaborateurs
› + de 100 clients
› Grands comptes et PME
› Cœur de métier SEO
› 14 ans d’expérience en SEO
› Toutes les facettes du SEO
› CA 2012 : 5 Millions €
Yann SAUVAGEON
Directeur de l’Expertise
Twitter : @Yahn
15. Accessibilité > Robots.txt
Où placer le robots.txt
A la racine du
Nom De Domaine
www.votresite.com/robots.txt
OK
En sous-domaine
hop.votresite.com/robots.txt
En sous-dossier
www.votresite.com/hop/robots.txt
NON
16. Accessibilité > Robots.txt
Bloquer tous les robots et tous les contenus
User-agent: *
Disallow: /
Bloquer un robot en particulier et un dossier spécifique
User-agent: Googlebot
Disallow: /archives/
Bloquer un robot en particulier et un fichier spécifique
User-agent: Googlebot
Disallow: /archives/1995.html
17. Accessibilité > Robots.txt
Bloquer tout un répertoire sauf un fichier HTML spécifique
User-agent: *
Allow: /repertoire/ficher.html
Disallow: /repertoire/
Bloquer l'accès à tous les sous-répertoires commençant par "personnel"
(wildcards)
User-agent: Googlebot
Disallow: /personnel*/
…
18. Accessibilité > Robots.txt
Les erreurs
› Copier le robots.txt du serveur de préprod vers le serveur d’hébergement
User-agent: *
Disallow: /
› Protéger votre serveur de préprod par un mot de passe ou un filtre IP
21. Accessibilité > Robots.txt
Monitorer son Robots.txt
http://www.robotto.org
› Suivi des changements sur le Robots.txt
› Alerte immédiate
› Enregistrement des changements
› Historique complet
› Date et heure
› Version des robots.txt
22. Accessibilité > Sitemap XML
Le sitemap XML
Un coup de pouce aux moteurs pour qu’ils trouvent plus
facilement vos contenus
<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
<url>
<loc>http://www.example.com/</loc>
<lastmod>2005-01-01</lastmod>
<changefreq>monthly</changefreq>
<priority>0.8</priority>
</url>
</urlset>
23. Accessibilité > Sitemap XML
Spécifier l’adresse du fichier Sitemap.XML dans le robots.txt
User-agent: Googlebot
Disallow: /nogooglebot/
User-agent: *
Disallow: /onlygooglebot/
Sitemap: http://www.example.com/sitemap.xml
25. Accessibilité > Sitemap XML
Priority
Ça ne sert à rien de
pousser au MAX.
<url>
<loc>http://www.example.com/</loc>
<lastmod>2013-01-01</lastmod>
<changefreq>monthly</changefreq>
<priority>0.8</priority>
</url>
La priorité est relative.
Elle ne s’applique qu’aux pages de votre site.
26. Accessibilité > Sitemap XML
Scinder vos contenus en plusieurs sitemaps.XML
Sitemap Web
Extensions
d’images et
Vidéos
Sitemap Vidéo
Sitemap
Mobile
Sitemap
Google
Actualités
http://www.sitemaps.org
https://support.google.com/webmasters/answer/156184?hl=fr&ref_topic=8476
27. Accessibilité > Sitemap XML
Nettoyez votre sitemap
1
2
3
Vérifiez les en-têtes http en erreur + la conformité des canonical
29. Accessibilité > Codes HTTP
Les erreurs > Les redirections en chaine !
URL redirigée
Idéalement
URL 1
URL 2
OK
URL 3
URL 4
URL 5
A éviter
30. Accessibilité > Codes HTTP
Les erreurs > Remplacer les pages supprimées par une 404
Page
supprimée
404
410
?
31. Accessibilité > Codes HTTP
Des codes d’erreur erronés
La page se charge
normalement.
Désindexation des pages !
Et livre un
code 500!
Contenu dupliqué en masse !
La page se charge
en 404.
Et livre un
code 200!
= « Soft 404 » / « crypto 404 »
32. Accessibilité > Codes HTTP
Des codes d’erreur erronés
Les erreurs 404 sont
redirigées vers la
Home Page.
Toutes les erreurs sont en
code 200!
?
36. Accessibilité > Les voies sans issue
Formulaires
Liens Flash complexes
Liens JS
Jeux de Redirections
Pages non
crawlables
37. Accessibilité > Mobile
Pensez accessibilité sur mobile !
http://googlewebmastercentral.blogspot.fr/2012/06/recommendations-for-building-smartphone.html
38. Accessibilité > Mobile
S’assurer que le site est crawlable par Googlebot et Googlebot-mobile
Aider Googlebot à identifier que le site est responsive design
› Spécifiez la largeur de votre site dans vos feuilles de style CSS
› Autorisez le crawl des fichiers externes (CSS, JavaScript, and images)
Ne pas alourdir le site inutilement
› Optimisez les images par support
› Chargez les éléments uniquement nécessaires à la configuration requise
› Travaillez les éléments de performance « classiques » : mise en cache du
navigateur, activation de la compression GZIP
41. CRAWL
INDEX
• Accéder à des pages
publiques
• Suivre les liens
présents sur ces pages
• Rassembler des
informations à propos
d’une page afin de la
rendre disponible
dans les résultats
Une page peut être
crawlée et non
indexée.
Une page peut être
indexée et non
crawlée.
42. Les moteurs de recherche sont-ils
capables d’indexer vos contenus ?
44. Indexabilité > Gérer l’indexation
Noindex > Bloquer l’indexation dans le robots.txt
User-agent: *
Disallow: /page-a.html
Noindex: /page-a.html
(commande non officielle)
Robots meta tag > Bloquer l’indexation d’une page
<!DOCTYPE html>
<html>
<head> <meta name="robots" value="noindex" /> ...
Attention : pour que cette commande puisse être prise en compte, les
robots doivent pouvoir crawler la page.
45. Indexabilité > Gérer l’indexation
X-Robots-Tag HTTP header > Bloquer l’indexation d’un doc. non-html
HTTP/1.1 200 OK Date: Tue, 25 May 2010 21:42:43 GMT
(…) X-Robots-Tag: noindex (…)
X-Robots-Tag HTTP header > Automatiser sur Apache via le .htaccess
<Files ~ ".pdf$">
Header set X-Robots-Tag "noindex, nofollow"
</Files>
47. Indexabilité > Points bloquants
Google s’améliore constamment.
Scripts
› Les outils de recherche sont assez mauvais dans l’interprétation des scripts.
Google est-il capable d’accéder
aux contenus présents dans les
onglets 2 à 4 ?
Ça dépend du
Framework utilisé.
48. Indexabilité > Points bloquants
Scripts
› Les outils de recherche sont assez mauvais dans l’interprétation des scripts.
OK
Pas OK
49. Indexabilité > Points bloquants
Flash
› Aucune granularité de l’information
› Pas d’URLs distinctes par contenus
› Texte en désordre
› Pas de deep-linking possible
› Non compatible avec les
mobiles/tablettes
50. Indexabilité > Points bloquants
Flash
› Utiliser le Flash comme des images
› Pour illustrer le propos
› Schéma
› Explication visuelle
---------------------------------------------------------------------------------------------------› Proscrire le flash
› Site Full-Flash
› Contenus texte dans le Flash
› Site mobile utilisant du Flash
51. Indexabilité > Points bloquants
Flash
› Matt Cutts Keynote at #Pubcon Las Vegas 2013
Smartphone ranking: If a searcher has a
phone that doesn’t do Flash, Google is
less likely to deliver results with Flash
52. Indexabilité > Points bloquants
Vous souhaitez vraiment du Flash … OK… !
› Travaillez la dégradabilité de vos contenus Flash
› Créer une arborescence HTML de votre site Flash
› Utilisez SWFObject pour détecter la nom prise en compte du Flash
› Deep-linking vers des sections du Flash via SWFAddress
67. Indexabilité > Points bloquants
votresite.com
votresite.com/index.php
www.votresite.com
www.votresite.com/index.php
Dilution de la
popularité
Contenu
dupliqué
4 pages
Non-maitrise
de l’URL
indexée
68. Indexabilité > Points bloquants
Choisissez entre www et sans-www
mysite.com
301
www.mysite.
com
Supprimez le nom du fichier présent par défaut à la racine de vos
dossiers (votresite.com/index.php)
Linkez en interne vers la version canonique et paramétrez dans GWT
votre domaine favori
69. Indexabilité > Points bloquants
URL Canonique
› Assurez vous d’avoir une seule URL par page
› Passez les détails inutiles dans les cookies plutôt que dans les URLs (session
IDs, paramètres de tracking )
› Utilisez la balise rel=“canonical” pour les filtres à ne pas indexer
http://www.example.com/produit.php?item=poisson_suedois&sort=prix
<link rel="canonical"
href="http://www.example.com/produit.php?item=poisson_suedois"/>
70. Indexabilité > Points bloquants
L’erreur > la même instruction Rel=Canonical sur tout le site
<link rel="canonical" href="http://www.monsite.com" />
Home
Page
catégories
Page
Produits
Blog
rel=canonical
rel=canonical
rel=canonical
72. Indexabilité > Optimisation
Quelques règles à respecter pour les URLs
› Concises
› Explicites
› Courtes
› Séparateur “-” et non “_”
› Utilisez des mots clés
› Utilisez une logique de dossiers/sous-dossiers plutôt que des paramètres
Ne misez pas tous sur les URLs
Si vous êtes déjà bien positionnés, attendez une refonte.
La réécriture d’URLs peut faire plus de mal que de bien à court terme.
73. Indexabilité > Optimisation
L’objectif n’est
pas de tout
indexer mais
d’indexer ce qui
est stratégique.
• Pages de résultats ?
• Navigation à facettes ?
• Filtres ?
• Options de tri ?
74. Indexabilité > Optimisation
Faciliter l’accès aux pages les plus profondes
› Ici, le robot doit scanner chaque niveau de page :
› Pagination par dizaines et/ou centaines pour les bots
76. Indexabilité > Optimisation
Gestion du Crawl et pages de résultats du site
1
2
3
4
5
6
…
Ne pas les indexer – Insérer une méta « noindex, follow »
La première page de résultats = Home Page de catégories
Bonnes pratiques = Editorialiser cette page / faire remonter vos produits clés
40
84. Performance des contenus
Performance des contenus
› Le temps de chargement impacte 1% des requêtes soit 1 requête sur 100 !
› Ce sont les requêtes les plus stratégiques « Short Tail » qui sont impactées.
86. Performance des contenus
Time to first byte
(TTFB)
• TTFB mesure
le temps qui
s’écoule entre
le moment où
la requête est
faite au
serveur et le
moment où le
navigateur
reçoit le
premier byte
de la réponse.
Start to render
(STR)
• “start render”
correspond au
moment où le
contenu
commence à
s’afficher dans
le navigateur
de
l’utilisateur.
Document
Complete
• Le temps
nécessaire
pour charger
toutes les
ressources
nécessaire au
navigateur
(texte,
images,
scripts).
95. Performance des contenus
Facteurs Client Side
Compression des images
Externalisation des JS et CSS
volumineux
Mise en cache côté navigateur
Chargement asynchrone
Sprites CSS
…
Facteurs Serveur Side
Performance du serveur
Localisation du serveur
La Base de Données / Les
requêtes associées
…
104. Administration SEO du site
Fonctionnalités clés SEO
› Edition du robots.txt
› Gestion des 301s
› Gestion de la redirection manuelle
› Débloquer Title et description (override)
› Sitemap Automatique
› Gestion des syntaxes de réécriture par backoffice
› Editeur en mode HTML
› Taggage sémantique des pages (schema.org + tag de catégories)
›…
109. Synthèse
Sites de petite taille
• Sites « Corporate »
• Sites institutionnels
• Sites Vitrine
Sites de taille
importante
• Sites e-commerce
• Sites d’annonces
• Sites d’actualités
110. Synthèse
1.
2.
3.
4.
5.
6.
Assurez l’accessibilité de vos pages
Favorisez l’indexabilité de vos contenus
Filtrez les contenus non stratégiques
Soignez votre temps de chargement
Dotez vous d’un CMS SEO-Friendly
Prévoyez d’être compatible mobile