Archives par mot-clé : Google

Basiques SEO MOZ – booster des pages non performantes

Cyrus Shepard signe ici sa good bye letter en tant qu’associé Moz.

Un excellent article qui rappelle les principes de base du référencement, et les priorités à appliquer pour concevoir sa stratégie efficacement :

https://moz.com/blog/single-best-seo-tip-for-improved-web-traffic

Je n’ai pas traduit littéralement cet article, trouvez donc ici mon interprétation de ce superbe article, il est toujours possible de le lire en anglais ici !

Les mensonges blancs du référencement

(oui OK, pas toptop comme traduction de white lies, on en profite pour se rappeler les notions de #whitehatSEO et #blackhatSEO ?)

Le marketing, en général, tente de créer un besoin et une envie, et pousse (push) un message à des personnes qui n’ont pas forcément envie de l’entendre (vive la TV).

L’art du référencement est de découvrir ce que les gens cherchent exactement, à créer le contenu exact pour répondre à ce besoin, et leur apparaître au moment où ils le cherchent et les attirer (pull) ainsi.

Pull vs Push => les clients viennent vers vous.

Et quel est le mensonge ?

Content is king” => “Le contenu est roi”

On sait tous que le roi ne gouverne rien du tout. Un statement plus véridique serait “si le contenu est roi, alors l’utilisateur est la reine, et elle gouverne l’univers.

C’est cela qu’il faut garder en tête :

 L’utilisateur est la reine, et elle gouverne l’univers.

Google ne s’occupe de votre contenu que lorsqu’il répond à la requête de l’utilisateur. Les résultats de recherche ne sont pas une collection de “bon” contenu ; ils sont une liste classée de contenus qui satisfont ce que l’utilisateur recherche.

Voici un processus typiquement usité par de nombreux SEO lors de la création de contenu :

  1. Recherche des mots clés pour découvrir ce que les gens recherchent dans une niche
  2. Choix d’une série d’expressions avec un fort potentiel d’impressions et avec peu de compétition
  3. Création du contenu au sujet de ces expressions et sujets
  4. Lancement et promotion de la page, création de liens
  5. Observation du trafic
  6. Next !

Les étapes 1-4 sont fréquemment du tout ou rien.

L’outil de Google Keyword Planner est connu pour ne pas révéler la plupart des mots clés longue traîne.

De plus, il est très difficile de créer le bon contenu et les bons liens pour que Google classe précisément les pages souhaitées.

Hélas, c’est là que la plupart des gens s’arrêtent. Il ne faut PAS s’arrêter là.

Ce processus s’appuie sur les signaux de référencement traditionnels pour classer votre contenu plus haut. Des signals comme l’usage de mots clés et Page Rank (ouioui, c’est bien un facteur de classement). Tandis que ces signals demeurent extrêmement importants, ils manquent l’évolution de la SEO.

Dans le dernier questionnaire de SEOMoz, 150 des meilleurs marketeurs SEO ont indiqué quels facteurs ils pensaient avaient gagné ou perdu en pertinence dans l’algorithme de Google. Les résultats montrent que, lorsque les traditionnelles fonctionnalités de la SEO étaient attendues à stagner ou à baisser, les fonctionnalités centrées sur l’utilisateur étaient attendues à la hausse.

En sus des signaux comme l’affinité mobile, l’UX en général, et la qualité perçue, les facteurs discutés ici incluent :

  • La page correspond à l’intention de l’utilisateur : en d’autres mots, la page a une grande probabilité d’être ce que l’utilisateur recherche
  • Les résultats des moteurs de recherche : cela peut inclure la mesure des résultats de recherche sur lesquels les utilisateurs cliquent
  • L’exécution de la tâche :  l’utilisateur et capable d’exécuter la tâche qu’il souhaitait. En d’autres mots, les questions ont été complètement répondues.

Donc, une fois que l’on a dit ça, on fait quoi ?

Optimiser comment les utilisateurs utilisent la page – plutôt que comment optimiser la page – et le trafic viendra.

Une fois que vous commencez à recevoir du trafic des moteurs de recherche, on obtient beaucoup de données à propos des “vraies” visites.

Se poser 3 questions :

  1. Mon contenu correspond-t-il à l’intention des visiteurs que je reçois ?
  2. À partir de cette intention, mes snippets invitent-ils les utilisateurs à cliquer ?
  3. Ma page autorise-t-elle les utilisateurs à “exécuter leur tâche” ?

Et voici les devoirs SEO :

  1. Identification des pages performant mal ou moyennement

Ce processus fonctionne le mieux sur les pages avec des niveaux de trafic décevants. La raison pour laquelle on ne touche pas aux bonnes pages est simple : “on ne change pas une équipe qui gagne”.

Cela ne signifie pas que les bonnes pages ne doivent pas être améliorées, mais à chaque fois que l’on change une page qui performe bien, on risque de ruiner ce qui fait qu’elle a une bonne  (ou en tout cas, meilleure) performance.

La façon la plus simple est d’utiliser Analytics et/ou Search Console pour identifier les “bonnes” pages – et cibler les bonnes requêtes – mais qui reçoivent moins de trafic que vous n’attendez, basé sur les moyennes du site.

Il faut prendre les bonnes impressions, avec un CTR décevant.

On se focalise sur les pages d’après l’exemple de Cyrus Shepard, mais on peut également partir des requêtes.

    2. Découvrir les incohérences entre l’intention de l’utilisateur et le contenu

Ensuite, nous souhaitons découvrir les mots clés qui déterminent notre URL dans les résultats de recherche. Cela est possible à partir de la Google Search Console  > Trafic de recherche > Analyse de la recherche > Requêtes https://www.google.com/webmasters/tools/search-analytics?hl=fr&siteUrl=

    3. Optimiser pour l’intention de l’utilisateur

Les marqueurs clés pour être indexé correctement et correspondre aux attentes des utilisateurs, et ainsi augmenter le taux de clic et diminuer le taux de rebond.

Un chouette outil mentionné sur cette page pour OpenGraph, Balises HTML, etc.

  • la balise <title>
  • la meta description
  • Le titre de la page et ses headers (<h1><h2> etc.)
  • le texte du corps
  • les boutons d’action (CTA – Call To Action)

Réécrire les balises title et les descriptions des page peu performantes pour inclure les mots clés souhaités conduira à une augmentation de clic et de visite.

Cette augmentation de clic conduira également à une meilleure indexation.

    4. Améliorer l’exécution de la tâche

Considérez cela : un utilisateur recherche les “meilleurs restaurants à Paris”. Vous souhaitez que votre camion de pizza soit le #1er pour cette requête, mais cela satisfera-t-il votre utilisateur ?

Probablement pas. L’utilisateur recherche probablement une liste des meilleurs restaurants, avec des notes, des plans, des menus. Si vous pouvez offrir tout cela, en étant Tripadvisor, lafourchette – alors vous avez aidé l’utilisateur.

La clé dans l’exécution de la tâche est de résoudre le problème de l’utilisateur de manière claire et immédiate.

Une fois sur votre site, l’utilisateur aura-t-il besoin de retourner sur Google pour trouver ce qu’il cherche ?

    5. Soumettre à la ré-indexation

La beauté de ce processus et que l’on peut voir les résultats très rapidement. Cela peut être fait dans Google Search Console > Exploration > Explorer comme Google.

Vérifiez que la page s’affiche comme vous le souhaitez, puis cliquez sur Envoyer pour indexation https://support.google.com/webmasters/answer/6065812?hl=fr

Cela va très vite ensuite !

    6–7. Mesurer les résultats, ajustez, répétez !

Il faut bien sûr mesurer le nouvelle performance contre l’ancienne. Après quelques jours ou semaines, selon le volume souhaité pour prendre des décisions significatives, regardez :

  • les positionnements, les impressions
  • les clics et le taux de clic
  • les mesures d’engagnement, type taux de rebond, temps sur le site, conversions

Les nouvelles de Google, semaine 2

Et voilà c’est officiel, l’algorithme Panda, après de multiples mises à jour depuis 2010, est intégré à l’algorithme de Google, Google est donc plutôt satisfait de ses critères et signaux actuels.

Mais Panda, que cela signifie-t-il ? (merci Olivier Duffez de WebRankInfo, dont j’ai suivi une formation voici quelques années)

  • Notion de mesures : des signaux qui sont récoltés chaque jour par l’usage fait des internautes sur le moteur de recherche, et d’autres signaux type temps de crawl d’une page, taux de rebond, etc.
  • On peut donc sortir d’une “pénalité Panda” en dehors des dates officielles de mise à jour, maintenant le site doit “juste” satisfaire les critères
  • Pas de sortie miraculeuse d’une “pénalité Panda” : le temps pour Google d’analyser la nouvelle version et TOUS les paramètres en jeu
  • Et donc attention, un site peut chuter graduellement, sans brutalité, car Panda ne va pas se mettre à jour d’un coup !

Les différents observateurs des SERP ont noté de grands mouvements les 8 et 16 janvier, liés à la qualité des liens : conséquence de cette intégration ?

La SEO (Google) en 2016 – que nous réserve-t-elle ?

2015 a été le théâtre du Mobilegeddon, entraînant tous les sites web sur  https://developers.google.com/speed/pagespeed/insights/. Ç’a été l’occasion pour certains d’enfin découvrir l’importance du responsive. Et que, oui, le temps de chargement d’une page compte, que l’optimisation du CSS et du poids des images n’est pas optionnel.

On a aussi eu la confirmation que le https rentrait dans les critères d’indexation de Google. Est-ce vraiment le cas ? Pour l’instant les “experts” sont mitigés. Quand je tape “étude de cas” sur notre moteur de recherche préféré, force est de constater que plus de la moitié des sites présents en première page affichent un https.  Est-ce car quasiment tout le monde s’y est mis (genre plus de la moitié de tout le monde ? 😉 ) ou parce que Google privilégie ce critère ? En tout cas, ça ne coûte pas grand chose hormis un certificat SSL, une redirection 301 et une mise à jour des liens sur tout le site, ça rassure les power users (je pense que les users lambda  s’en tamponnent le coquillard), donc https ce sera. D’ailleurs ce serait bien que je m’y mette aussi…

Panda a refait une apparition fin novembre (nom de code Phantom, mais c’est la même chose, en fait, Panda est nommé Phantom quand il n’est pas annoncé officiellement par Google). Ça a fait mal à beaucoup de sites, dont les nôtres. On a dû apprendre à se débarrasser de certaines de nos pages thématiques-non-thématisées (hein), d’une manière violente, car le trafic qu’elles apportaient (et Dieu sait qu’il était pourtant quali avec un bon taux de rebond !) a été pénalisé et a disparu. Et bim, on s’enfonce dans les abîmes (jolie rime !).

On a également appris que Google avait un panel de testeurs, et on a même eu le droit aux critères de qualitéhttp://static.googleusercontent.com/media/www.google.com/en//insidesearch/howsearchworks/assets/searchqualityevaluatorguidelines.pdf (si vous avez des insomnies)

Abondance a fait une infographie-rétrospective : http://www.abondance.com/actualites/20160104-15966-infographie-les-updates-google-en-2015.html

Les pénalisation de liens, c’est Penguin, pas Panda, attention à ce qu’ils disent sur Phantom.

 

Alors, que nous réserve 2016 ? Rand Fishkin, gourou s’il en est, de SEOMOZ, nous livre quelques prédictions :

  • l’augmentation de la pénétration du mobile a atteint son acmé, et du coup, le desktop a enfin fini de sombrer. Donc on continue de développer pour le desktop aussi (mais de concert avec mobile of course)

J’aime beaucoup sa phrase, d’ailleurs :

Mobile isn’t killing desktop. It’s killing all our free time.

  • Twitter va bien trouver une manière de grandir encore. Moi perso je n’ai jamais été fan, mais qui sait, donc il faut persister avec cette stratégie
  • Les content, aggregation and recommendation engines vont prendre de l’ampleur
  • Yext va lever de l’argent (je n’ai pas encore compris en quoi ce business consistait en revanche)
  • La distribution normale va continuer à descendre en flèche
  • Adblocking : il va falloir ruser pour mettre ses pubs sur les sites 😉
  • Duckduckgo (moteur de recherche rival de Google et, euh… bein oui, Bing et Yahoo!) va continuer à prendre de l’ampleur. D’ailleurs maintenant on va l’appeler DDG
  • Content marketing softwares : gardez en tête Buzzsumo, Kapost, Priconomics, Quicksprout, Moz Content

Qu’en est-il des Internet of Things ? pas suffisamment développé pour l’instant pour que cela ait un impact sur le web marketing !

 

On se reparle à la fin de l’année ? 😉