2. Formation professionnelle
& Conférences en Digital Marketing
Prochaines dates de formation
22, 23 & 24 janvier 2019
MASTERCLASS SEO
Formez-vous aux dernières techniques de référencement
22, 23 & 24 janvier 2019
OPTIMISEZ VOS CONTENUS POUR LE GOOGLE DE 2020
Animées par
Philippe YONNET, Expert SEO
Inscription
Tel. 01 83 75 91 55
formation@know-y.fr
4. #seocamp
Je vais vous raconter une histoire…
4
Genre conte d’Andersen
A la manière d’un expert SEO
Ca commence mal, mais ça finit
bien…
5. #seocamp
Il était une fois…
Un vilain petit site
Avec du contenu en Flash
Plein de contenu généré en Javascript
Rempli de duplicate content et de DUST
Et de problèmes techniques
Lent et laborieux
Mais qui voulait quand même être célèbre et très
très visible sur Google
Récemment, le vilain petit site a plutôt
vécu les changements chez Google comme
des mauvaises nouvelles
Mais il n’y a pas que des mauvaises nouvelles
pour lui…
5
6. #seocamp
Le Flash c’est fini !
Fin du support par Adobe en 2020
Plus supporté par défaut par Chrome
(76+), Firefox (69+), Microsoft Edge
Et…
Plus supporté par Google Search avant
la fin de l’année
https://webmasters.googleblog.com/2019/1
0/goodbye-flash.html
29 octobre 2019
6
7. #seocamp
Google se fiche des rel=next/prev
Mars 2019 : annonce du non
support des rel next/prev
Attention ça reste utile par
ailleurs
Mais il faut peut être revoir
votre manière de gérer les
paginations
https://www.search-foresight.com/rel
next-prev-et-pagination-non-rien-na-c
hange-finalement/
Mais pas le reste de la terre…
7
8. #seocamp
Fin du support de la directive noindex dans le
robots.txt
Annoncé en juillet
Plus du tout géré depuis septembre
https://webmasters.googleblog.com/2019/07/a-
note-on-unsupported-rules-in-robotstxt.html
Urls crawlées mais indexées :
« Les moteurs de recherche ne peuvent indexer que
les pages qu'ils connaissent, donc bloquer la page
pour éviter qu'elle ne soit explorée signifie
généralement que son contenu ne sera pas indexé.
Bien que le moteur de recherche puisse également
indexer une URL à partir de liens d'autres pages,
sans voir le contenu lui-même, nous visons à rendre
ces pages moins visibles à l'avenir. »
Pas de regrets, cela n’a jamais été officiellement supporté
8
9. #seocamp
Robots.txt a été standardisé (enfin presque)
Une idée de Martijn Koster
il y’a 25 ans
Jamais devenu un
véritable standard
Mais Google a décidé d’en
faire un standard
https://webmasters.googleblo
g.com/2019/07/rep-id.html
Merci Gary !
9
10. #seocamp
Attention au robots.txt
Le fichier robots.txt est vérifié avant
chaque téléchargement de fichier
Lorsque Googlebot crawle le robots.txt, il
obtient un code 200 dans 69% des cas, un
code 50x dans 5% des cas, et dans 20% des
cas… rien, pas de réponse !
Attention au code renvoyé : 200 ou 404,
mais ne renvoyez pas de code 50x pendant
longtemps (crawl bloqué par sécurité
En clair, attention aux robots.txt créés
dynamiquement
Ne pas faire n’importe quoi avec ce fichier
10
?
Ben alors, M.
robots.txt,
vous me
répondez ?
11. #seocamp
L’attribut Nofollow n’est plus une directive
Google s’était tiré une balle dans le pied avec l’attribut
nofollow
Une partie du web qui l’intéressait n’était plus
accessible en respectant cette directive
Ex avec les médias anglais !
https://webmasters.googleblog.com/2019/09/evolving-nofollow-
new-ways-to-identify.html
Google pourra donc crawler des liens en nofollow
11
?
13. #seocamp
Google indexe de mieux en mieux le contenu généré
en javascript
Googlebot est devenu evergreen (il se sert de la dernière version de Chromium)
13
14. #seocamp
Pourquoi c’est devenu possible ?
Il y’a dix ans, le temps de
téléchargement moyen était de
800ms, il est de 500 ms maintenant
Le gain en ressources économisées à
permis à Google de les réaffecter sur
la rendition du javascript.
14
15. #seocamp
Googlebot va changer de User Agent
https://webmasters.googleblog.com/2019/10/updating-user-agent-of-googlebot.html
Changement prévu en décembre … donc bientôt
15
DemainAujourd’hui
16. #seocamp
Indexation en moins de 5 sec ! ?
Crawler le javascript demande 20x plus
d’appels à des ressources
Si votre code est trop consommateur de
ressources CPU … dommage !
Arrêt de la rendition => rendition partielle =>
résultats inattendus
Cas extrêmes : la page est marquée comme
impossible à « rendre », et marquée comme
un-renderable
D’autres processus demandent toujours
du temps
Le délai entre crawl et indexation est toujours
de quelques jours
Oui mais notre vilain petit site peut toujours avoir des problèmes
16
17. #seocamp
Euh… mais du coup c’est quoi la reco ?
Pas d’enjeu SEO ? Etre indexé suffit ? => OK pour générer du contenu en JS
Enjeu SEO fort : Contenu généré en JS possible uniquement si
Votre code est performant, sans erreur, et ne demande pas trop de ressources
Si les marchés chinois et russes ne sont pas important pour vous
Bonne pratique dans tous les cas de figure :
On évite le Client Side Rendering
On préfère le Server Side Rendering, le SSR avec Hydration, ou l’Hybrid Rendering (bien fait),
Et quand tout cela n’est pas possible, on peut avoir recours aux serveurs de prérendition ou au
dynamic rendering
17
18. #seocamp
Preview formats for publishers
https://webmasters.googleblog.com/2019/09/more-c
ontrols-on-search.html
Plus de contrôle sur l’apparence des snippets
18
Avec la balise meta robots
Ou en tant qu’attribut HTML
20. #seocamp
Les sites lents dénoncés ?
Concernera les sites
dramatiquement lents…
Pas de date encore pour ce changement (en test)
20
21. #seocamp
Moralité : la vie est devenue meilleure pour notre
vilain petit site
Mais tout n’est pas parfait dans le meilleur des mondes possibles, ne compliquez
pas la vie de Googlebot…
21
JS
powered
23. +40 conferences, ateliers et
formations autour du Search &
Digital marketing
SEARCH Y C’EST :
Un programme d’exception avec
+30 intervenants
Dans un nouveau lieu :
Les Salons de l'Aveyron Paris Bercy
1
2
5
En partenariat avec4
Des sujets sur le SEO, SEA, SMO, la
recherche vocale ou encore
l’Intelligence Artificielle et le
Machine Learning…
3