Temps de lecture : 17 minutes

Les rapports de force

Le moteur de recherche idéal doit comprendre exactement l’objet de chaque recherche pour fournir exactement les informations demandées. » Larry Page

Cette phrase de l’un des fondateurs de Google doit être médité parce qu’elle est lourde de sens et de conséquences. Le célèbre moteur de recherche fonctionne seulement pour le bien de (tous) ses utilisateurs.

Ce que vous aller apprendre

Cet article couvrira les points suivants :

 

  • Parmi les diffèrent canaux onlines, le search marketing est sans doute le plus évident. Google, qui est le site le plus visité et le plus utilisé en Europe impose ses conditions et ses règles d’usage.
  • Comment échapper à cette domination algorithmique ?

Définitions et explication

DÉFINITION • Search marketing ou SEM

Travailler sa stratégie vis-à-vis des moteurs de recherche implique des métiers différents. Au sein de ce levier, nous aurons à la fois un levier payant et un levier organique.

Le SEO correspond au référencement naturel, c’est-à-dire à la capacité à apparaître naturellement bien positionné au sein des résultats.

Le SEA est le Search Engine Advertising et représente la partie payante, qui consiste à acheter des mots-clés aux enchères. Ces deux composantes du référencement réuni constituent le SEM, Search Engine Marketing.

DÉFINITION • Le SEO

Le Search Engine Optimisation regroupe l’ensemble des techniques et méthodes susceptibles d’améliorer les positions d’un site Web dans les résultats de recherches sur les mots-clés stratégiques.

Pourquoi utiliser le search marketing ?

Afin de bien comprendre l’évolution des algorithmes, vous devez avoir en tête cette phrase et ses conséquences sur le triptyque Google-marqueter-user. Chaque personne voit ses propres intérêts, qui peuvent être différents :

1. Les internautes :

Exigeants, ils souhaitent tout trouver facilement et rapidement.
• Vont rarement au-delà de la première page de résultats.
• Ne lisent pas tout.
• Veulent tout savoir avant d’acheter.
• Ne distinguent pas toujours le SEO du SEM (search marketing).

2. Les moteurs de recherche :

• Fonctionne pour le bien de l’internaute, a priori.
• renforce leurs algorithmes pour plus de pertinence et plus de personnalisation.
• veut conserver leurs ressources pour des raisons environnementales et économiques.
• fait participer les utilisateurs et les responsables du site.

3. Les responsables marketing et des sites Web ont intérêt à :

• accorder les techniques SEO et des contenus commerciaux de qualité ;
• suivre les directives explicites et implicites de Google;
• travailler en parallèle l’optimisation du SEO et du SEA ;
• améliorer leur positionnement SEO et de réduire le recours aux moteurs de recherche.

On peut conclure que les professionnels du marketing sont pris en tenaille entre les attentes fortes des utilisateurs et les sollicitations de Google pour se conformer aux « règles » du référencement naturel. Ces besoins ont permis la création et le développement des métiers d’optimisation SEO dans les moteurs de recherche.

D’un métier à dominante informatique consistant en partie de détournement des règles techniques fixées par Google, le spécialiste en référencement est devenu un architecte de l’information axée sur le marketing et collabore avec Google au bénéfice de l’utilisateur final.

EN QUOI CONSISTE LE SEARCH MARKETING ?

Des conseils concrets

Le présent paragraphe fournit des conseils pratiques sur le search marketing :

Quel chapeau adopterez-vous ?

Les techniques d’optimisation du SEO se regroupent en deux parties : la technique et la sémantique.

Parmi ces deux méthodes, le choix est rapide, sauf si vous êtes un pirate informatique. Le white hat, couplé à une véritable stratégie sémantique, paraît être la meilleure solution. Certes, les développements de ces dernières années ont permis de nettoyer les résultats et de sanctionner les sites qui abusent de moyens techniques « sur-optimisés » ou illicites. En même temps, il a permis de mettre en place des sites plus riches en qualité, bien structurés et accessibles.

EN QUOI CONSISTE LE SEARCH MARKETING ?

Le SEO : patience et détermination

Fais preuve de patience parce que tu ne seras pas numéros un du jour au lendemain. Il y a une certaine inertie au niveau des moteurs de recherche, bien qu’il y ait eu plus de réactivité au cours des dernières années. Toutefois, cette réactivité accrue est neutralisée par la suspicion de changements trop radicaux qui obligent les sites à déployer progressivement leur stratégie.

La détermination car les mises à jour fréquentes de Google interviennent avec les impacts générés par les efforts déployés. On peut alors se demander si ces efforts n’ont aucun effet ou s’ils ont permis de limiter le déclin du référencement.

Voici quelques éléments de méthodologie pour obtenir des résultats probants :

On récolte ce que l’on sème Pour que les moteurs de recherche soient en mesure d’indexer les pages d’un site Web, ils ont besoin de contenu, c’est-à-dire de contenu riche d’un point de vue sémantique et des liens qui permettent la navigation dans les contenus.

La construction d’un site optimisé pour le référencement est un bon point de départ, mais elle ne sera pas suffisante pour produire des résultats convaincants.

Conseils

La production régulière de contenu nous permet de répartir l’effort et de bâtir un capital de qualité qui portera ses fruits au fil du temps.
Et pour que ces contenus produisent leur effet, il est nécessaire de traiter le terreau de départ, c’est-à-dire la qualité technique du site. En plus de se conformer aux normes du W3C, nous devons veiller à nous conformer aux instructions de Google concernant le balisage html.

L’obtention de bons résultats prend du temps : le travail d’optimisation de la recherche est un travail à long terme. Bien que Google soit maintenant plus réactif, ses principaux effets sont toujours progressifs. Les moteurs de recherche peuvent également percevoir de manière négative des changements trop rapides tels que le nombre de pages, le nombre de liens entrants, le volume de contenu. Il est donc préférable d’organiser votre travail afin de générer des optimisations majeures sur une base régulière et de prendre le temps de bien gérer votre site web.

Conseils

Pour une organisation efficace, rien ne vaut un bon calendrier annuel des actions à entreprendre et un suivi mensuel des actions menées et le reste à faire.

Une attention particulière sera accordée aux actions récurrentes, qui sont une routine très bénéfique pour le bon entretien du site et de son contenu.

La structure constitue un facteur clé de réussite. La navigation et l’organisation des pages sont des éléments qualitatifs que Google est en mesure de percevoir et qui faciliteront le travail d’indexage. Plus il est facile pour le robot du moteur de recherche de naviguer, plus grand nombre de page sera potentiellement index.

La structure arborescente est ainsi la base d’une bonne organisation à condition qu’elle permette une navigation facile dans toutes les pages. Les éléments de navigation doivent permettre un déplacement vertical ou latéral à l’intérieur du site, quelle que soit la page. Rappelons qu’un visiteur entre souvent par une page intérieure du site et non par la page d’accueil.

La structuration est valable aussi pour l’intérieur des pages. Un contenu doit comporter un titre, des intertitres, des sous-sections et des liens.

Conseils

Utilisez l’arborescence du site Web pour mettre en évidence la hiérarchie de l’information et les principaux thèmes. Les premiers niveaux de l’arborescence doivent tenir compte des mots clés les plus stratégiques.

Concevoir de la structure des pages à l’intérieur du site avant la structure de la page d’accueil. Contrairement à la plupart des pratiques courantes, la structure de la page d’accueil provient d’autres pages et non l’inverse.

Les pages intérieures devraient être considérées comme des pages d’entrée potentielles parce qu’elles devraient être mieux positionnées que la page d’accueil sur les mots clés précis correspondants aux contenus de la page en question.
Il ne faut surtout pas dupliquer les blocs de contenu sur toutes les pages, comme les pieds de page comportant trop d’information et de liens. Le mieux est de privilégier les informations nécessaires sur ces zones récurrentes.

Dans le meilleur des cas, la mise en contexte de zones fixes telles que les pieds de page est idéale et plus utile pour les visiteurs. Soigner le titrage des pages et des paragraphes en proposant des titres uniques et une hiérarchisation des titres de paragraphes. Les balises de titration de type hl, h2, h3 doivent être conformes à l’ordre logique.

Notez que l’astuce d’insérer des balises dans la navigation ou le pied de page « footer » ou sur le logo est une très mauvaise idée. Il en résulte une redondance systématique qui sera à la fois inutile et contreproductive.

Le bon sens et la prise en compte de l’environnement plus important que toutes les techniques : chaque secteur a divers usages pour les internautes. Les mots employés évidemment, mais aussi la démarche de recherche d’informations, le positionnement de la concurrence, l’équipement des visiteurs et enfin leur localisation.

Google offre notamment l’opportunité de travailler spécifiquement son référencement local. Grâce à la prise en compte de l’adresse IP et aussi grâce à son offre Google local, le moteur vous permet de gérer les adresses physiques et de les lier à des résultats de recherche localisés.

Conseils

Ne vous précipiter pas sur les trucs et astuces trouvées sur Internet pour arriver en têtes des résultats Google, soigner d’abord la qualité du site et de ses contenus et surtout de l’adapter à la cible visée.
Depuis les représentants de Google prétendent travailler pour le confort de l’utilisateur final, les imité devraient nous permettre de gagner des performances de la façon la plus naturelle.

L’ergonomie et le design sont essentiels.

Un site en mesure de rendre la navigation agréable par son ergonomie ou sa conception aura de meilleures performances en termes de temps passé, de nombre de pages vues et de taux de rebond.

Cela va peser lourdement sur le référencement parce que ces indicateurs qualitatifs sont des critères très importants pris en considération par les algorithmes de Google.

Conseils
Occupez-vous de la phase de conception Web en appliquant des méthodes de conception axées sur l’expérience utilisateur (UX). Il est ainsi possible d’intégrer les parcours clients longtemps à l’avance et de guider le travail graphique sur les exigences ergonomiques fonctionnelles.

Bien sûr, il ne faut pas oublier les boutons d’actions (CTA = calls-to-actions) qui joue le rôle de guide et amène le visiteur à aller à la page suivante.

• L’accessibilité est clé : 12 millions de personnes soit 15 % de la population souffre d’un handicap potentiellement gênant pour la navigation sur Internet. La déficience visuelle (1,5 million de personnes) mais aussi les réductions de mobilités viennent contrarier l’utilisation des outils de navigation comme la lecture, la perception des nuances de couleurs, le clic avec la souris.

Les robots moteurs de recherche ont tous ces handicaps parce qu’ils n’ont pas d’yeux ou de bras pour lire des images, des couleurs et cliquer en déplaçant une souris.

Conseils

• Tenir compte des critères d’accessibilité dès le début de la conception du site et les imposer fermement aux fournisseurs de services en charge du développement et du contenu.

• Communiquer les lignes directrices minimales pour améliorer l’accès au contenu des produits :

— Remplissez les balises « Alt » qui vous permet de spécifier le texte de rechange dans le cas d’une incapacité à voir une image.

— Choisir des liens explicites et éviter à tout prix des ancres de type « Click here »

— Respecter la structuration des contenus, particulièrement les paragraphes et les tableaux, et éviter les sauts de ligne (balise
).

L’entretien du site permet d’assurer sa longévité et celle du SEO :

Si on veut prendre soin un site n’est pas seulement lors de sa création ou de sa refonte d’un site. Tout les mois, c’est nécessaires exactement comment l’entretien d’un potager. Des bugs peuvent s’afficher, des agressions externes peuvent être commises, des mises à jour de composants peuvent être nécessaires.

Conseils

Organiser le travail de maintenance selon un calendrier rigoureux et méthodique.

Google fournit aux webmestres et aux propriétaires de sites Web une interface — la console de recherche — qui donne accès à de l’information précieuse sur l’entretien. Le moteur indique précisément les erreurs qu’il a rencontrées sur le site, le nombre de pages qu’il a indexées ou rejetées, vérifie les accès aux fichiers fournis et peut suggérer des améliorations.

Consultez au moins une fois par mois cette interface est un soutien précieux pour orienter les travaux de maintenance. L’interface permet également de transmettre des informations afin de faciliter le travail du robot et de signaler la correction d’une erreur détectée par Google.

Google tire parti de toutes les données disponibles pour évaluer la popularité.

Les liens entrants naturellement mais aussi le caractère viral et l’engagement du contenu du site. Pour y parvenir, l’algorithme doit pouvoir faire le lien entre le site et ses présences sur les réseaux sociaux.

Conseils

Offrir systématiquement la possibilité de partager du contenu sur divers réseaux sociaux. En plus d’un simple lien vers chaque réseau, il est important de contrôler comment le partage de contenu sera affiché. Facebook avec l’open graph et Twitter avec les Twitter cards proposent un langage html afin de définir les formats de partage en précisant par exemple le titre, la description, le lien et l’image à utiliser.

Parmi les réseaux sociaux, celui qui a le plus d’impact SEO est probablement Pinterest, du moins dans la mesure où ce réseau ne monétise pas son trafic. Décidément, Google n’applique pas le principe de « no follow» sur les liens présents sur Pinterest pour la simple raison qu’ils ne sont pas a priori des liens commerciaux.
Nous avons constaté que le SEO n’est pas l’apanage des techniciens spécialistes en développement Web mais plutôt l’affaire des professionnels du marketing.

Ces principes non exhaustifs donnent déjà une vue d’ensemble de la complexité de cette spécialité qui doit être maîtrisée au minimum pour le bon déroulement du plan marketing digital.

EN QUOI CONSISTE LE SEARCH MARKETING ?

Le fonctionnement d’un moteur de recherche

Les moteurs tels que Google ont des robots capables de balayer les pages Web en explorant les uns après les autres les liens présents sur ces pages.

Les robots indexent ces pages suivant les règles énoncées dans leurs algorithmes. Selon le type de page, les placements dans la page, entre certaines balises, les mots auront une importance différente dans la façon dont ils sont pris en considération lors de l’affichage d’une recherche.

Ces règles sont de plus en plus complexes et le sujet de ce livre n’est pas d’y répondre en détail. Cependant, il est important pour un spécialiste du marketing de comprendre la base de ces règles parce qu’il l’aidera à concevoir des sites et, surtout, à écrire du contenu d’une manière optimale.

Si on schématise de manière très simplifiée le fonctionnement de l’indexation :

1. Le robot accède à une page du site, il identifie les éléments qui lui sont destinés : fichiers robot.txt et sitemap.xml. S’ils sont présents, il suit les consignes données comme les pages à ne pas indexer ou au contraire celles à indexer en priorité.

2. Le robot identifie le type de page : page de contenu classique, page e-commerce, article de blog ou actualité. Le traitement par l’algorithme sera différent selon le type de page.

3. L’indexation de la page démarre selon la structure de la page et ses éléments clés : le titre de la page, sa description, les différents paragraphes, leurs titres et sous-titres, les mots en gras ; mais aussi les éléments multimédias, comme les images et les vidéos. Même s’ils ne peuvent être « vus », les éléments textuels pèsent fortement sur le SEO : nom des fichiers, légendes, textes alternatifs (balises alt).

4. Le robot scrolle et explore l’ensemble des liens présents sur la page. Les mots-clés présents dans les ancres de lien, à savoir le texte présent dans le lien, habituellement souligné ont plus de poids pour la page de destination du lien.

Donc, page après page, lien après lien, le robot explore le site dans une limite bien précise. Google indique les valeurs des limites surtout pour le nombre de caractères dans les titres et les descriptions. Par contre, la limite d’exploration des pages n’est pas transparente. Il est donc important de rendre la vie du robot plus facile afin qu’il puisse indexer un maximum de pages dans un minimum de ressources et de temps.

L’algorithme détermine aussi la popularité de chacune des pages. Pour cela, on analyse les liens extérieurs pointant vers la page. Les plus pertinents ajoutent de la valeur au référencement de la page, en particulier si le site source lui-même est bien référencé. Le moins pertinent peut affecter le référencement, par exemple, si le site pointant vers la page traite d’un sujet totalement différent, il ne sera pas pris en considération et si le site source présente un mauvais SEO ou soupçonné de ne pas suivre les règles.

Il faut donc faire attention aux liens entrants, souvent appelés « backlinks », trop vite acquis. Le mieux est de privilégier la qualité des backlinks à leur quantité.

Dans les prochains parcours du robot, dont la fréquence peut varier, les changements seront analysés pour améliorer l’antériorité de l’information ou sa fraîcheur en fonction du type de page. C’est pourquoi une mise à jour du contenu sera la bienvenue, de même que la stabilité sémantique des pages. De façon très pragmatique, une même page qui change de sujet à chaque passage du robot sera dégradée car elle est trop instable et donc non classifiable en termes d’index.

Par contre, si la page est enrichie de contenu additionnel afin de la mettre à jour, elle sera perçue positivement.

En résumé, la stratégie de référencement peut être plutôt technique ou axée sur le contenu. Cependant, il est préférable d’investir ses efforts dans des éléments d’optimisation qui satisferont aussi bien les moteurs de recherche que les visiteurs, parce qu’il ne faut pas oublier que satisfaire les visiteurs d’un site améliore également leur transformation en clients et ainsi en entreprise.
diam et ipsum vestibulum vestibulum.

Faciliter la vie du robot

Les moteurs de recherche, en particulier Google et Bing, fournissent aux propriétaires de sites Web des lignes directrices et des outils pour aider à améliorer l’indexation. L’interface de communication fournit de riches informations sur la perception de Google vis-à-vis de votre site Web : http://www. google.fr/webmasters/. Il existe aussi un guide de démarrage très pédagogique qui reprend les principales règles d’optimisation du SEO naturel.

Les fichiers techniques indispensables à l’indexation
Comme nous l’avons déjà mentionné, Google communique avec les propriétaires de sites pour faciliter le travail de son robot et économiser temps et ressources. Donc, au lieu de « crawler » c’est-à-dire d’analyser toutes les pages, de suivre tous les liens, le robot s’appuie sur les consignes transmises par l’intermédiaire de fichiers techniques. Parmi ces dossiers, deux sont consacrés aux moteurs de recherche et un tiers est plus largement utilisé pour gérer les conditions d’accès aux pages du site.

Le fichier robots.txt indique aux robots les pages qu’il doit indexer et celles qu’il peut ignorer. C’est la première chose que le robot regarde en arrivant sur un site. Le dossier, s’il est présent et bien documenté, évite beaucoup de problèmes. En particulier, nous pouvons exclure les pages SEO sans intérêt, comme les notices légales ou les pages transactionnelles comme « mon compte ». Si le site comporte un extranet client qui n’est pas destiné au public en général, il peut être exclu de l’indexation.

Le fichier sitemap est une représentation du site au format XML C’est une bonne idée de signaler le chemin dans le fichier robots.txt et de le soumettre dans l’interface de Google pour les webmasters. Le sitemap doit contenir toutes les pages du site que nous voudrions voir indexées dans les moteurs de recherche.

C’est possible de leur attribuer une priorité et une fréquence de mise à jour mais il semble que celle-ci ne soit plus vraiment utilisée. Plus important encore, le fichier sitemap doit être mis à jour automatiquement dès qu’une modification est apportée au site. En proposant un sitemap aux moteurs de recherche, les robots économisent temps et ressources et améliorent la qualité de l’indexation. Un gain de temps permettra d’indexer davantage de pages.

Le fichier .htaccess fait partie des fichiers « cachés » et sera bien utile en SEO. Ce fichier gère les possibilités de redirection. Par exemple, dans le cadre de la refonte d’un site, si les url sont modifiées, il est crucial de rediriger une par une les anciennes url vers les nouvelles et non pas, comme c’est souvent le cas, toutes les url vers la page d’accueil du nouveau site. Fournir ces réorientations permanentes aide à ne pas perdre le capital de référencement durement gagné.

Les outils pour les webmasters

Les moteurs fournissent des outils grâce aux interfaces de gestion du référencement. Il contient des informations essentielles comme l’état des derniers index, les erreurs trouvées, la part des pages indexées et de nombreuses suggestions d’améliorations.

Pour sa part, le webmestre du site peut transmettre ses instructions aux moteurs de recherche comme par exemple :

Définir les préférences concernant l’url : avec www. ou sans www. Ceci évitera la duplication du site si les deux types d’URL fournissent l’accès aux mêmes pages sans redirection.

Définir les paramètres principaux : le pays, la langue principale, la fréquence d’indexation désirée.

Soumettre un ou plusieurs sitemaps XML et vérifier son/leur bon fonctionnement.

Repérer et réparer les liens cassés et les pages d’erreur (404).

Connaître les mots clés qui alimentent le trafic et transmettre ces données à un niveau supérieur dans des outils d’analyse comme Google Analytics.

Les évolutions des moteurs de recherche sont si fréquentes et rapides qu’il faut y prendre part et rester informé de la manière dont le site Web est perçu par le robot du moteur. Les professionnels les plus actifs ne seront pas satisfaits du recours à ces outils. La surveillance de sites et de forums spécialisés permettra également d’obtenir des renseignements moins officiels, mais tout aussi utiles.

Les mises à jour majeures de Google

Depuis 2011, les mises à jour majeures de l’algorithme de Google portent des noms. Sans doute accidentellement, la première mise à jour marquante a fait le buzz sous le nom de son ingénieur « Panda ». Il faut dire que ces changements de l’algorithme d’indexation ont bouleversé la donne et les acquis de certains sites particulièrement visés.

L’un des objectifs était sans doute économique. L’idée logique étant de diriger les sites commerciaux vers le SEO payant et les sites de contenu vers le SEO naturel.

Les sites qui monétisent leur contenu ne disposent plus d’une grande place pour la recherche organique.

Finalement, cette mise à jour avait un objectif d’économie de ressources: Google Panda réduit les volumes d’indice grâce à des filtres anti-duplication pour le contenu.

Quels sont les changements majeurs de Google Panda ?

Il est facile de repéré et de sanctionné les contenus dupliqués. Cela concerne à la fois le contenu pris d’un autre site sans que la source soit clairement identifiable, ainsi que les cas très fréquents de sites qui présentent plusieurs url pour une page de contenu ou des pages très similaires mais bien distinctes. Par exemple, le fait d’avoir dix pages distinctes pour dix fiches produit concernant le même tee-shirt mais de dix couleurs différentes pourrait être visé.

L’algorithme est maintenant capable de détecter le rapport entre le contenu et le texte original et le volume du code html, des images, de la publicité. Les contenus issus de syndication, c’est – à-dire dont la source provient d’autres sites, sont déclassés. Les excès peuvent alors être pénalisés par une dégradation si les proportions laissent entrevoir une faible valeur ajoutée : trop de publicité, trop de reprise de contenus de tiers, pas assez de textes.

Les backlinks (liens entrants) sont analysés de manière bien plus détaillée qu’auparavant. Les backlinks achetés sont identifiés et les sites d’accueil sévèrement pénalisés. Les fournisseurs de backlinks doivent déclarer leurs liens en « no follow » pour indiquer aux robots des moteurs de recherche de ne pas en tenir compte. Toutefois, si des sites sont pénalisés, d’autres seront heureusement privilégiés.

Les possibilités d’analyse sur la richesse, la fraîcheur et l’authenticité du contenu sont fortement renforcées, favorisant ainsi les sites qui ont eu une véritable stratégie de contenu.

L’accessibilité et la structure du contenu font l’objet d’une attention particulière.

Avec le déploiement de Google Panda ayant eu un grand impact, Google a continué cette stratégie de communication sur ses mises à jour ultérieures. Ainsi, nous avons eu une série de variations de Panda ainsi que d’autres mises à jour, comme Penguin, Colibri. Ainsi, nous avons eu une série de variations de Panda ainsi que d’autres mises à jour, comme Pingouin, Hummingbird. En 2015, Google Pigeon se focalise particulièrement sur la prise en compte de la recherche géo localisée.

Sans obliger de devenir un professionnel du référencement, il fait prendre en compte ces profondes modifications dans le traitement des moteurs de recherche dans la stratégie marketing car ils influent fortement sur la visibilité des marques sur Internet. Quels que soient le secteur et la problématique, positionnement de la marque dans les moteurs de recherche est un thème central du plan marketing qui déterminera les directions sur d’autres leviers.

Cela s’avère plus vrai dans le cas du mobile puisque d’après des chiffres fournis par Google, plus de 50 % des démarches d’achats en ligne commencent par une recherche sur un smartphone.

EN QUOI CONSISTE LE SEARCH MARKETING ?

Les achats de mots-clés

SEA (Search Engine Advertising)

Définition
La partie payante de la visibilité dans les moteurs de recherche par achat de mots clés est maintenant supérieure et inférieure au SERP (Search Engine Result Pages). Ces liens sponsorisés ont longtemps occupé la bonne colonne qui a été supprimé à la fin de 2015 pour deux raisons. Le développement de la navigation mobile donne lieu à un changement d’usage. Les utilisateurs ont tendance à naviguer à la verticale plutôt qu’à l’horizontale. Nous ne pouvons-nous empêcher de penser que cette disposition génère aussi plus de clics et donc de revenus pour Google comme les résultats naturels perdent de la visibilité.

Liens sponsorisés apparaissent aussi sur d’autres sites appartenant au réseau AdSense de Google. Ces sites offrent à Google des sites pour afficher des liens sponsorisés contextuels liés aux thèmes traités.

Il est également possible d’intégrer le moteur de recherche Google sur son site dans lequel les mêmes liens sponsorisés figurent dans les résultats.

SEA : fonctionnement de Google Adwords

Le principe est de sponsoriser les pages du site afin qu’elles s’affichent dans les pages de résultats avec des mots-clés pertinents. Une offre est faite pour un mot-clé donné et, selon un algorithme, l’annonce et le lien vers la page d’accueil apparaîtront plus ou moins au haut de la page des résultats.

Plusieurs modèles économiques sont proposés :

CPC manuel l’administrateur du compte choisit l’enchère maximum au CPC (coût par clic). Ceci signifie que le plus offrant sera affiché en haut de la page pourvu qu’il soit suffisamment pertinent pour le mot-clé donné. Voilà pourquoi les mots clés compétitifs peuvent atteindre des coûts très élevés parfois jusqu’à des dizaines d’euros par clic.

Réciproquement, un mot-clé rare ne coûtera que quelques centimes.

CPA cible : Google optimise dynamiquement le CPC pour essayer d’atteindre le CPA (coût par action) fixé par l’administrateur. Ce mode peut convenir à des gestionnaires de comptes qui ont très peu de temps pour gérer leurs campagnes, mais les optimisations effectuées par un logiciel peuvent être douteuses.

L’organisation d’un compte Google Adwords est structurée en campagnes rassemblant des ensembles d’annonces regroupant eux-mêmes des mots-clés. Il est en général recommandé de créer un haut niveau de granularité afin de mieux identifier et contrôler les optimisations possibles.

Par défaut, les mots-clés des groupes d’annonces héritent de leurs propres paramètres de campagne, sauf si l’on choisit de les différencier par groupe d’annonces ou par mot-clé.

Pour chaque groupe d’annonces, il sera créé avec un titre, deux lignes de crochet, un lien fictif et l’adresse de destination réelle.
Assurez-vous bien cibler la bonne page de destination appropriée au mot-clé acheté. C’est nécessaire de disposer d’une bonne cohérence entre le mot-clé, la publicité et la page d’accueil. Cette page, souvent appelée de son anglicisme « landing page », doit être bien choisie.

Le choix des mots-clés

Cette étape est essentielle pour le succès d’une campagne SEA. Le choix des conditions d’achat se fait dans l’arborescence du site, qui donnera les grands groupes. Puis, on procède à une recherche approfondie pour identifier les mots clés stratégiques pour chaque catégorie et sous-catégorie de contenu.

Google et Bing offrent aux professionnels un outil pour mener à bien ce type d’analyse sémantique. De ce fait, on peut naviguer dans l’onglet outils et y trouver le planificateur de mots-clés. Avec une puissance imparable, l’outil offre des idées de mots clés qui sont similaires ou liés à ceux saisis par l’utilisateur. Le résultat permet même de proposer des groupes thématiques de mots-clés. Il est alors possible d’affiner l’œuvre en ajoutant des mots à exclure, ou à inclure, et le ciblage géographique. La liste obtenue à la fin est exportable au format CSV afin d’être mieux exploitée. Les données fournies pour chaque mot-clé proposé correspondent au nombre moyen de recherches mensuelles, le CPC estimé en cas d’achat et la concurrence selon une échelle faible, moyenne, élevée.

Les modes de ciblage sémantique

Vous pouvez acheter des mots de diverses manières :

Requête large : l’annonce peut s’afficher sur un ou plusieurs des mots clés présents dans l’expression + l’ensemble des combinaisons possibles.

Exemple : chaussures classiques. Ainsi :
— Je pourrai être visible sur « chaussures rouges » et sur « mocassins classiques ».
— Ma visibilité va dépendre de la pertinence de la page de destination par rapport au mot-clé tapé par l’internaute.

Requête large modifiée : les mots précédés d’un + sont requis.
Par exemple : + chaussures classiques

Je pourrai être visible sur « chaussures rouges » mais pas sur « mocassins classiques ».

Requête expression : l’ensemble des mots présents dans l’expression sont présenté dans le bon ordre. Nous pouvons avoir des déclinaisons avec des modalités avant et après

Requête exacte : l’annonce ne s’affiche que lorsque les mots de l’expression sont saisis de manière exacte sans mot avant ni après.

Le Choix d’un bon mode d’achat n’est pas toujours facile. Plus la requête est précise et exacte, moins le CPC sera cher et moins la concurrence devrait être forte. Mais nous pouvons aussi rater des opportunités en oubliant des mots-clés.

Généralement, on a une tendance à acheter des requêtes larges au début d’une campagne pour se rapprocher progressivement des requêtes d’expression qui semblent représenter le meilleur compromis.

Le choix du mode d’achat a une conséquence assez forte sur le volume de mots clés à acheter. Logiquement, si nous voulons acheter en mode expression, nous devrons fournir de nombreuses variations de mots pour parvenir à des volumes intéressants. D’autre part, avec un budget ISO, le mode expression génère plus de trafic grâce à une CPC moyenne moins élevée.

Mais au-delà de la méthode d’achat, le choix des mots est tout aussi stratégique par rapport à la performance des campagnes et à leur rentabilité. Les orientations sémantiques correspondent aux objectifs fixés au préalable. Afin de développer la notoriété, le mieux est de s’exposer sur les mots clés très souvent recherchés alors que pour de la performance commerciale, il est mieux de s’exposer sur des mots clés plus qualifiés et moins concurrentiels.

Termes génériques et longue traîne
Les mots-clés génériques sont les termes les moins précis ayant une portée assez large. Par exemple le mot « chaussure » est un terme générique. Ces types de termes sont à l’origine de la plupart des recherches effectuées par les internautes, mais ils sont très compétitifs et donc assez chers.
Les mots-clés de la longue traîne correspondent à des mots spécifiques, souvent composés. Par exemple « chaussure en cuir rouge à talons » sera peu recherché donc peu concurrentiel et donc peu cher. Ces mots-clés sont très nombreux, mais possèdent peu de volumes de recherche. Acheter des mots-clés de la longue traîne coûte moins cher au CPC puisqu’ils sont moins concurrentiels et plus précis.

Le niveau de qualité ou quality score de Google
Lorsque des campagnes sont actives, Google attribue une note allant de 1 à 10 à chacun des mots-clés achetés. On parle du niveau de qualité ou quality score en anglais.

C’est de cette note du mot-clé que sa position dépende dans les résultats payants de Google et son coût par clic. Plus le score de qualité est élevé, plus le site aura de chances d’être bien positionné à la CPC sur un pied d’égalité avec les concurrents. Quand le score de qualité est inférieur à 3, il est tout à fait possible que l’annonce ne soit même pas affichée, dans tous les cas sur la première page des résultats.

Les critères d’attribution de cette note sont les suivants :

La pertinence de la page de destination sur le mot-clé. Cela évalue la qualité SEO de cette page sur ce mot-clé.

La pertinence de l’annonce : Le mot-clé acheté doit se trouver dans l’annonce au niveau du titre ou de l’accroche. Une astuce consiste à insérer une balise dynamique qui l’insère automatiquement tant que ce n’est pas trop long.

Le taux de clic : plus les internautes cliquent sur le lien de l’annonce, plus l’annonce sera considérée comme pertinente sur ce mot-clé, par rapport à la concurrence, tant que le clic sur l’annonce ne rebondit pas sur la page d’atterrissage et revient immédiatement à la page de résultat. Effectivement, le taux de rebond pèse négativement sur le score de qualité.

L’historique des performances : Google Adwords dispose d’un moteur d’optimisation automatique qui sera en mesure de choisir d’afficher une annonce au-dessus d’une autre. Dans le cas d’une interruption de campagne due à un incident de paiement ou d’indisponibilité du site, l’historique sera vidé et les optimisations réinitialisées.
Inversement, un compte qui fonctionne bien depuis longtemps sera favorisé.

Divers : il y a toujours quelque opacité sur les méthodes de Google pour attribuer cette note. Cependant, une note de qualité de 10/10 rapportera beaucoup moins à la SCP qu’une note de 5/10. Les variations peuvent aller de 1 à 5.

Conseils
Afin d’améliorer son quality score, il faut organiser ses campagnes de mots clés avec une forte granularité, c’est-à-dire limiter le nombre de mots par groupe de publicités pour cibler l’accroche associée et la page de destination. Cela présente également l’avantage de faciliter la distinction entre les groupes efficaces et les groupes faibles, ainsi que l’arbitrage.

L’amélioration des quality scores dépend indirectement du travail SEO. On croit souvent à tort que les achats par mots clés sont attrayants lorsqu’un positionnement naturel est faible. En fait, nous aurons de bien meilleurs résultats en nous positionnant sur des mots clés où le site est bien positionné en SEO. L’interaction du référencement naturel et payant est en effet évidente dans ce cas spécifique.

Étant donné que la performance historique est l’un des critères, il est préférable d’éviter de couper complètement les campagnes. Pour une activité très saisonnière, nous pouvons laisser un budget limité tout au long de l’année.

La mise en œuvre de votre référencement est évidemment constructive et très rentable à long terme si elle réussit.

L’investissement en SEA engendre une grande visibilité dont l’impact commercial est souvent sous-estimé.

L’essentiel à retenir

Le search marketing est un levier majeur pour acquérir du trafic. Sans maîtriser toutes ses subtilités, les spécialistes du marketing doivent maîtriser ses principaux mécanismes : SEO et SEA
SEO et SEA sont étroitement liés et doivent travailler idéalement dans une manière coordonnée.

Les premiers critères pour classer des résultats SEO sont les contenus, les liens entrants (backlinks) et le Rank brain. Le choix des mots et des groupes sémantiques est déterminant pour une bonne méthode de recherche marketing. Le bon sens et la satisfaction des internautes doivent toujours être une priorité parmi les méthodes d’optimisation du SEO. Le social média a un impact sur le search à condition qu’ils optimisent les liens entre le site et les réseaux sociaux.

Pin It on Pinterest

Share This