Archives de catégorie : SEO – référencement naturel

AMPP : Accelerated Mobile Pages Project

Et voici le dernier né des projets de Google pour faire suer les développeurs et les chefs de projet, après le Mobileggedon et le https de 2015 : AMPP, le Accelerated Mobile Pages Project, initiative open source soutenue par Google, LinkedIn, Twitter, Pinterest, WordPress, Chartbeat, Parse.ly et Adobe Analytics, démarrée en octobre 2015 et annoncée comme live en février 2016.

AMP, que cela veut-il dire ?

C’est un standard HTML5 ultra simplifié qui permet un chargement plus rapide d’une version de la page : js simplifié, optimisation des images et vidéos, sandboxing des iframes, désactivation des sélecteurs CSS lents.

Du coup c’est à l’heure actuelle difficile, voire même impossible, d’appliquer ce standard à un site ecommerce ayant de nombreuses fonctionnalités actionnées par du js, ou à un site vivant de publicités interactives.

En revanche, le standard AMP supporte les images, les vidéos, Youtube, Instagram, les tweets, les iframes : cela marche bien avec un site de contenu type blog ou actualités. Et d’ailleurs ! WordPress a déjà quelques plugins qui convertissent basiquement les articles en format AMP (comme ici)  :

https://wordpress.org/plugins/amp/

Un design sobre, un exemple avec ce site :

Version non AMPVersion AMP

 

 

 

 

 

 

 

Cela fera apparaître dans le carousel des résultats de recherche (je n’ai pas encore accès à cela pour faire apparaître un exemple ici).

Les avantages avec ce type de plugin :

  • Nul besoin de réécrire les url, il gère cela comme un grand avec /amp/ au bout l’url
  • Pas de souci de contenu dupliqué, les liens canonical et rel=amphtml qui fournit l’URL de la version AMP HTML sont également gérés
  • Ainsi que bien sûr toute la conversion des balises

Quel est l’avantage d’avoir des pages AMP ?

  • Difficile pour l’instant de déterminer un réel avantage SEO, il est trop tôt
  • Nous arrivons en tête des résultats, c’est forcément bien quand on sait que les positions 1-3 ont un CTR nettement plus élevé que les résultats des positions au-delà
  • On offre un contenu plus rapide à ses utilisateurs, là aussi net avantage assez évident

En revanche :

  • Les résultats, bien qu’hébergés sur ses serveurs et non chez Google comme Facebook Instant Articles, sont affichés dans le carousel sur Google. Il faut donc que la page AMP soit un minimum sexy et plus attrayante que celle de ses concurrents pour amener le visiteur sur son site.

À noter que Google Search Console a une section dédiée à ces fameuses AMP :

https://www.google.com/webmasters/tools/accelerated-mobile-pages?hl=en&siteUrl=

 

Les nouvelles de Google, semaine 8 : AMP, suppression de la colonne de droite

Une semaine riche en nouvelles, particulièrement pour les annonceurs, sur notre moteur de recherche préféré !

  1. Suppression des annonces à droite des résultats

Maintenant elles sont toutes au-dessus des résultats naturels ! mais toujours signalées par Ad / Annonce.

À la place vous aurez les données OpenGraph de ce que vous recherchez, ou votre historique de recherche (dans les deux cas j’ai Ryan Gosling du coup…)

Ryan Gosling suppression des annonces

 

2. Gros morceau : le lancement des Accelerated Mobile Pages

En gros, et je suis toujours dessus, c’est une “version réinventée du HTML” pour offrir des pages optimisées, js optimisé, sans publicités vidéo et autres fioritures aux résultats de recherche mobile de Google.

C’est tout un nouveau design à mettre en place… pour l’instant difficile à mettre en place pour les sites ecommerce, mais tout à fait faisable pour les pages de contenu type article de blog et actualité, d’ailleurs les exemples fournis sur le web sont theguardian, washingtonpost.

Plus d’infos sur les AMP ici !

 

Basiques SEO MOZ – booster des pages non performantes

Cyrus Shepard signe ici sa good bye letter en tant qu’associé Moz.

Un excellent article qui rappelle les principes de base du référencement, et les priorités à appliquer pour concevoir sa stratégie efficacement :

https://moz.com/blog/single-best-seo-tip-for-improved-web-traffic

Je n’ai pas traduit littéralement cet article, trouvez donc ici mon interprétation de ce superbe article, il est toujours possible de le lire en anglais ici !

Les mensonges blancs du référencement

(oui OK, pas toptop comme traduction de white lies, on en profite pour se rappeler les notions de #whitehatSEO et #blackhatSEO ?)

Le marketing, en général, tente de créer un besoin et une envie, et pousse (push) un message à des personnes qui n’ont pas forcément envie de l’entendre (vive la TV).

L’art du référencement est de découvrir ce que les gens cherchent exactement, à créer le contenu exact pour répondre à ce besoin, et leur apparaître au moment où ils le cherchent et les attirer (pull) ainsi.

Pull vs Push => les clients viennent vers vous.

Et quel est le mensonge ?

Content is king” => “Le contenu est roi”

On sait tous que le roi ne gouverne rien du tout. Un statement plus véridique serait “si le contenu est roi, alors l’utilisateur est la reine, et elle gouverne l’univers.

C’est cela qu’il faut garder en tête :

 L’utilisateur est la reine, et elle gouverne l’univers.

Google ne s’occupe de votre contenu que lorsqu’il répond à la requête de l’utilisateur. Les résultats de recherche ne sont pas une collection de “bon” contenu ; ils sont une liste classée de contenus qui satisfont ce que l’utilisateur recherche.

Voici un processus typiquement usité par de nombreux SEO lors de la création de contenu :

  1. Recherche des mots clés pour découvrir ce que les gens recherchent dans une niche
  2. Choix d’une série d’expressions avec un fort potentiel d’impressions et avec peu de compétition
  3. Création du contenu au sujet de ces expressions et sujets
  4. Lancement et promotion de la page, création de liens
  5. Observation du trafic
  6. Next !

Les étapes 1-4 sont fréquemment du tout ou rien.

L’outil de Google Keyword Planner est connu pour ne pas révéler la plupart des mots clés longue traîne.

De plus, il est très difficile de créer le bon contenu et les bons liens pour que Google classe précisément les pages souhaitées.

Hélas, c’est là que la plupart des gens s’arrêtent. Il ne faut PAS s’arrêter là.

Ce processus s’appuie sur les signaux de référencement traditionnels pour classer votre contenu plus haut. Des signals comme l’usage de mots clés et Page Rank (ouioui, c’est bien un facteur de classement). Tandis que ces signals demeurent extrêmement importants, ils manquent l’évolution de la SEO.

Dans le dernier questionnaire de SEOMoz, 150 des meilleurs marketeurs SEO ont indiqué quels facteurs ils pensaient avaient gagné ou perdu en pertinence dans l’algorithme de Google. Les résultats montrent que, lorsque les traditionnelles fonctionnalités de la SEO étaient attendues à stagner ou à baisser, les fonctionnalités centrées sur l’utilisateur étaient attendues à la hausse.

En sus des signaux comme l’affinité mobile, l’UX en général, et la qualité perçue, les facteurs discutés ici incluent :

  • La page correspond à l’intention de l’utilisateur : en d’autres mots, la page a une grande probabilité d’être ce que l’utilisateur recherche
  • Les résultats des moteurs de recherche : cela peut inclure la mesure des résultats de recherche sur lesquels les utilisateurs cliquent
  • L’exécution de la tâche :  l’utilisateur et capable d’exécuter la tâche qu’il souhaitait. En d’autres mots, les questions ont été complètement répondues.

Donc, une fois que l’on a dit ça, on fait quoi ?

Optimiser comment les utilisateurs utilisent la page – plutôt que comment optimiser la page – et le trafic viendra.

Une fois que vous commencez à recevoir du trafic des moteurs de recherche, on obtient beaucoup de données à propos des “vraies” visites.

Se poser 3 questions :

  1. Mon contenu correspond-t-il à l’intention des visiteurs que je reçois ?
  2. À partir de cette intention, mes snippets invitent-ils les utilisateurs à cliquer ?
  3. Ma page autorise-t-elle les utilisateurs à “exécuter leur tâche” ?

Et voici les devoirs SEO :

  1. Identification des pages performant mal ou moyennement

Ce processus fonctionne le mieux sur les pages avec des niveaux de trafic décevants. La raison pour laquelle on ne touche pas aux bonnes pages est simple : “on ne change pas une équipe qui gagne”.

Cela ne signifie pas que les bonnes pages ne doivent pas être améliorées, mais à chaque fois que l’on change une page qui performe bien, on risque de ruiner ce qui fait qu’elle a une bonne  (ou en tout cas, meilleure) performance.

La façon la plus simple est d’utiliser Analytics et/ou Search Console pour identifier les “bonnes” pages – et cibler les bonnes requêtes – mais qui reçoivent moins de trafic que vous n’attendez, basé sur les moyennes du site.

Il faut prendre les bonnes impressions, avec un CTR décevant.

On se focalise sur les pages d’après l’exemple de Cyrus Shepard, mais on peut également partir des requêtes.

    2. Découvrir les incohérences entre l’intention de l’utilisateur et le contenu

Ensuite, nous souhaitons découvrir les mots clés qui déterminent notre URL dans les résultats de recherche. Cela est possible à partir de la Google Search Console  > Trafic de recherche > Analyse de la recherche > Requêtes https://www.google.com/webmasters/tools/search-analytics?hl=fr&siteUrl=

    3. Optimiser pour l’intention de l’utilisateur

Les marqueurs clés pour être indexé correctement et correspondre aux attentes des utilisateurs, et ainsi augmenter le taux de clic et diminuer le taux de rebond.

Un chouette outil mentionné sur cette page pour OpenGraph, Balises HTML, etc.

  • la balise <title>
  • la meta description
  • Le titre de la page et ses headers (<h1><h2> etc.)
  • le texte du corps
  • les boutons d’action (CTA – Call To Action)

Réécrire les balises title et les descriptions des page peu performantes pour inclure les mots clés souhaités conduira à une augmentation de clic et de visite.

Cette augmentation de clic conduira également à une meilleure indexation.

    4. Améliorer l’exécution de la tâche

Considérez cela : un utilisateur recherche les “meilleurs restaurants à Paris”. Vous souhaitez que votre camion de pizza soit le #1er pour cette requête, mais cela satisfera-t-il votre utilisateur ?

Probablement pas. L’utilisateur recherche probablement une liste des meilleurs restaurants, avec des notes, des plans, des menus. Si vous pouvez offrir tout cela, en étant Tripadvisor, lafourchette – alors vous avez aidé l’utilisateur.

La clé dans l’exécution de la tâche est de résoudre le problème de l’utilisateur de manière claire et immédiate.

Une fois sur votre site, l’utilisateur aura-t-il besoin de retourner sur Google pour trouver ce qu’il cherche ?

    5. Soumettre à la ré-indexation

La beauté de ce processus et que l’on peut voir les résultats très rapidement. Cela peut être fait dans Google Search Console > Exploration > Explorer comme Google.

Vérifiez que la page s’affiche comme vous le souhaitez, puis cliquez sur Envoyer pour indexation https://support.google.com/webmasters/answer/6065812?hl=fr

Cela va très vite ensuite !

    6–7. Mesurer les résultats, ajustez, répétez !

Il faut bien sûr mesurer le nouvelle performance contre l’ancienne. Après quelques jours ou semaines, selon le volume souhaité pour prendre des décisions significatives, regardez :

  • les positionnements, les impressions
  • les clics et le taux de clic
  • les mesures d’engagnement, type taux de rebond, temps sur le site, conversions

Balises HTML, rich snippets et Open graph

Dans l’article LE RÉFÉRENCEMENT, DÉMYSTIFIÉ PAR LA CHIMIE sont évoqués de manière assez amusante et scientifique les différents éléments entrant en ligne de compte pour le référencement, axant la problématiques sur les facteurs on-page et off-page.

Dans les facteurs on-page, partie I. section c., sont listées les balises/tags HTML qui vont permettre aux moteurs de recherche et aux réseaux sociaux de catégoriser, d’indexer, de structurer et d’afficher votre site et ses pages selon ses thèmes et contenus.

Ce sont des balises élémentaires et revêtent la plus haute importance : soignez <title>, les hiérarchisations <h1>/<h2>/<h3>.

Les rich snippets (moteur de recherche) et les balises opengraph (réseaux sociaux) permettent de soigner l’aspect de vos pages dans leurs résultats de recherche : image/logo, catégorisation de la page, breadcrumb/fil d’Ariane, auteur, etc.

 

Un excellent site pour vérifier ses balises : http://www.yakaferci.com/analyse-seo-site/

Les nouvelles de Google, semaine 2

Et voilà c’est officiel, l’algorithme Panda, après de multiples mises à jour depuis 2010, est intégré à l’algorithme de Google, Google est donc plutôt satisfait de ses critères et signaux actuels.

Mais Panda, que cela signifie-t-il ? (merci Olivier Duffez de WebRankInfo, dont j’ai suivi une formation voici quelques années)

  • Notion de mesures : des signaux qui sont récoltés chaque jour par l’usage fait des internautes sur le moteur de recherche, et d’autres signaux type temps de crawl d’une page, taux de rebond, etc.
  • On peut donc sortir d’une “pénalité Panda” en dehors des dates officielles de mise à jour, maintenant le site doit “juste” satisfaire les critères
  • Pas de sortie miraculeuse d’une “pénalité Panda” : le temps pour Google d’analyser la nouvelle version et TOUS les paramètres en jeu
  • Et donc attention, un site peut chuter graduellement, sans brutalité, car Panda ne va pas se mettre à jour d’un coup !

Les différents observateurs des SERP ont noté de grands mouvements les 8 et 16 janvier, liés à la qualité des liens : conséquence de cette intégration ?