optimisation-SEO

Optimisation SEO : 6 critères pour référencer votre site web

Gage de visibilité, un bon référencement naturel, ça se travaille. Contenus de qualité, mots clés, balises, liens… les moteurs de recherche ont de nombreux critères pour référencer un site, et certains d’entre eux sont en évolution constante. Il existe toutefois des règles de base et des techniques essentielles à l’optimisation de votre site pour un bon référencement : on vous dit tout !

I – Qu’est-ce que l’optimisation SEO ?

L’optimisation SEO ou Search Engine optimization – Optimisation pour les moteurs de recherche – d’un site rassemble toutes les techniques qui permettent d’améliorer le positionnement naturel d’un site dans les pages de résultats de moteurs de recherche. Elles se basent sur les critères de pertinence pour le référencement suivis par les robots des moteurs de recherche.

Lorsqu’un internaute fait une requête auprès d’un moteur de recherche, les robots du moteur – Google par exemple – cherchent sur le web les informations les plus pertinentes en fonction des mots recherchés par l’internaute. On parle ici d’un référencement naturel, par opposition au référencement payant : il s’agit ici du respect du système naturel de référencement par les robots, et non de payer pour que le site soit placé en haut de page des résultats, comme les annonces et les liens sponsorisés par exemple.

Comment faire en sorte que le moteur de recherche trouve notre site le plus pertinent pour une requête donnée ? C’est là tout l’enjeux de l’optimisation SEO !

II – Les points essentiels de l’optimisation SEO

On page SEO

1 – Le contenu

En toute logique, pour que votre site Internet soit proposé par le moteur de recherche, son contenu doit être en rapport avec la requête de l’internaute : les mots utilisés par l’internaute doivent se retrouver dans le contenu du site, c’est, pour les moteurs, le signe que le contenu a de bonnes chances de donner les informations que l’internaute recherche.

Pour optimiser votre contenu dans ce sens, il vaut mieux bien connaître les mots clés qu’utilisent l’internaute que l’on veut attirer sur son site – la cible. Faites une recherche de mots clés pour les identifier, grâce aux outils comme Google Keywords Planner ou Google Adwords.

Il s’agit d’être au plus près des problématiques de la cible, pour y apporter une solution. En plus d’avoir les bons mots clés, votre contenu devra être intéressant, bien structuré et bien rédigé, et mis à jour régulièrement.

2 – La technique

Un critère majeur des moteurs est la propreté du code HTML, et sa conformité aux standards en vigueur des codes HTML 5 et CSS 3. Ils sont une langue en tant que telle, répondant à des codes précis : c’est la langue parlée par les moteurs, et s’ils ne peuvent pas lire votre site, ils le laisseront de côté !

Prenez soin de structurer votre texte grâce aux balises de titre – h1, h2, h3 – et de compléter les balises méta description avec des phrases construites : pensez à placer vos mots clés dans les balises de manière cohérente !

Les images doivent être rapides à télécharger, et comporter une description de leur contenu par l’attribut Alt : c’est ce qui leur permet d’être lues par le moteur.

La vitesse de téléchargement est également un point d’optimisation. Il dépend de la performance du serveur, mais aussi d’éventuels caches. Le cache est un enregistrement des données statiques du site, directement dans l’ordinateur de l’utilisateur pour les caches navigateurs : ces données ne sont pas relues par le moteur à chaque requête, ce qui permet de gagner du temps sur l’affichage, donc de fluidifier la navigation. Les caches se gèrent à partir du codage HTML, par des balises à placer dans la section <head> de la page.

3 – L’expérience utilisateur

Tout ce qui favorise une bonne navigation pour l’utilisateur est un point positif pour le référencement : un site responsive qu’on peut consulter à partir de différents supports, la vitesse de chargement, une navigation claire, un plan du site, la sécurisation du site par un certificat SSL.

Off page SEO

4 – La confiance

Votre site est-il digne de confiance ? Google référence en fonction de la confiance que l’on peut faire à un site, formalisé par un indice, le TrustRank. De 0 à 10, il est calculé à partir de multiples critères techniques comme humains : l’autorité, le taux de rebond, l’ancienneté, le renouvellement, l’audience, le nombre de pages du site.

5 – Les liens

Un moteur de recherche comme Google prend également en compte la qualité et le nombre de liens entrants vers un site, ainsi que les textes d’ancrage : le texte d’ancrage aussi appelé « texte d’ancre » est le texte cliquable qui pointe vers l’URL d’une autre page. Il doit être clair, concis, pertinent, et dans l’idéal, comporter un mot-clé sur lequel le site doit se positionner.

6 – Signaux sociaux

Partages de publications et partages de liens, « j’aime » sur Facebook et Re-tweets, sur les médias sociaux, les interactions, les relations sont autant d’informations pour un bon référencement par les moteurs de recherche. Sans avoir un impact systématique au niveau des robots, il est toujours bénéfique pour le référencement naturel d’un site de faire parler de soi, et plus spécifiquement à travers les réseaux. Invitez au partage, favoriser la viralité de vos contenus avec des formats faciles à partager comme les infographies, ou encore les vidéos : les signaux sociaux sont l’occasion de générer un maximum de liens entrants vers votre site.

Mots-clés utilisés, structure et balises, intérêt en regard des réseaux sociaux, avant de produire votre contenu, avez-vous bien pensé à l’optimisation pour le référencement naturel par les moteurs de recherche ? Pour chacun de vos contenus, gardez l’œil sur les points à respecter !

Geofencing

Qu’est-ce que le marketing par Geofencing?

Permet de peindre une image. Disons que vous vous trouvez autour de Nations Unis. Et que vous recevez un coupon McDonalds ou disons de notre société Web Agency Maroc sur votre appareil intelligent.

Comme un McDonalds est situé dans la région, les chances d’utiliser réellement ces coupons augmentent de façon exponentielle.

C’est un marketing très intéressant qui est de plus en plus utilisé par les entreprises.

Qu’est-ce que le marketing de géorepérage?

Geofencing au Maroc

La géolocalisation permet aux entreprises de faire de la publicité auprès des consommateurs dans une zone géographique spécifiée.

Avec des technologies telles que le GPS et le suivi Google Maps, les spécialistes du marketing peuvent spécifier un périmètre. Ils peuvent aussi spécifier une limite en fonction d’un emplacement réel. Ensuite, ils peuvent créer une barrière virtuelle ou «geofence» dans la zone.

Au fur et à mesure que les consommateurs entrent dans la barrière géographique, ils reçoivent des annonces géolocalisées sur leurs appareils.

Quand la géolocalisation a-t-elle commencé?

Le géorepérage ou gardiennage virtuel (en anglais, geo-fence ou geofencing) est une fonction d’un logiciel de géolocalisation qui permet de surveiller à distance la position et le déplacement d’un objet et de prendre des mesures si la position ou le déplacement s’écarte de certaines valeurs fixées d’avance.

Le Journal officiel de la République française du 7 octobre 2012 a retenu le terme géorepérage comme traduction de l’anglais technique geofencing.

Le géorepérage utilise les données reçues par un récepteur GPS embarqué et transmises par téléphonie mobile.

Pourquoi Geofencing?

pourquoi-geofencing

Le marketing par géorepérage offre d’énormes avantages lorsque nous entrons dans le monde du marketing numérique.

  • Améliorez votre marketing local
  • Améliorer la notoriété de la marque

Comment intégrer le Geofencing au Maroc dans votre stratégie marketing?

Les publicités basées sur la localisation ou la géolocalisation sont un excellent moyen d’améliorer votre entreprise et sont comparables à Facebook et Google Ads ou à l’achat de médias.

La mise en place d’une stratégie avec votre marketing est donc la première étape à faire.

Goefencing-strategie

Conclusion 

De nombreuses entreprises l’utilisent geofencing au Maroc et d’ailleurs pour gagner du trafic vers leur magasin et augmenter leurs ventes, et vous pourriez en faire partie.

Tout ce dont vous avez besoin est une excellente stratégie et des annonces captivantes avec des appels à l’action convaincants pour attirer ces clients.

creation-logo

Les 6 erreurs à éviter lors de la création de votre logo

Le logo, c’est l’identité de votre marque. L’image par laquelle vous allez être reconnu. C’est plus que la première impression, c’est celle qui vous précède, vous accompagne et laisse son empreinte quand vous n’êtes plus là. Autant dire qu’il serait dommage de le louper. Voici les principales erreurs que vous n’allez pas commettre !

1. Imiter les autres

S’inspirer de ce qui existe, c’est bien. Vous pouvez, vous devez même examiner les logos de vos concurrents. Mais ne les recopiez pas trait pour trait. Même si vous les trouvez très beaux et qu’ils ont du succès. C’est vous que vous présentez, pas quelqu’un d’autre. Vos prospects ne doivent pas vous confondre avec vos concurrents !

2. Suivre la tendance (juste parce que c’est la tendance)

Les modes, ça va et ça vient. Regarder ce qui se fait actuellement, c’est important. Mais, là encore, juste pour l’inspiration. Parce que si votre image de marque à vous, c’est plutôt le rétro, mais que la tendance est au néon fluo dans l’écriture de logo, vous ne parviendrez pas à lier les deux de manière cohérente. Si la tendance du moment vous plaît, foncez. Sinon, suivez celle de l’année dernière ou inventez celle de l’année prochaine !

3. Vouloir tout dire (et faire trop compliqué)

Quand vous avez réfléchi à votre positionnement, vous avez listé toute une série d’adjectifs qui vous ressemblent. Et vous vous dites que ce serait bien que tous ces concepts puissent être repris dans votre logo… Sauf qu’un logo, c’est une toute petite image, pas un roman graphique. Sélectionnez une ou deux idées principales, qui seront mises en avant. Et c’est tout !

4. Tenter d’aller plus loin que l’arc-en-ciel

Utiliser un logo avec de nombreuses couleurs, c’est… douloureux pour les yeux ! Et vous n’avez pas envie que vos clients détournent le regard, ni qu’ils aient du mal à faire le point sur votre image de marque. Un logo peut très bien être monochrome. En plus, il sera alors plus facile à reproduire sur de nombreux supports, y compris en noir et blanc. Sinon, deux à trois couleurs suffisent. Largement.

5. Ne pas avoir de caractère bien défini

La typographie, c’est un sujet important. Si vous ajoutez du texte, la police de caractère que vous retiendrez doit être facilement lisible. De près, de loin, en petit comme en grand. Et là encore, faites dans la sobriété : une ou deux typographies, pas plus. Et qui sont bien assorties l’une avec l’autre. D’ailleurs, la teinte de la typographie doit être comptée dans le nombre de couleurs totales de votre logo.

6. Oublier la technique

Un logo est souvent utilisé en .png et .jpg, c’est-à-dire en bitmap. Rien qu’en lisant cette phrase, vous vous dites peut-être déjà qu’il s’agit de détails techniques, et que vous n’avez pas à vous en occuper au moment de réfléchir à la conception de votre image. Sauf que si vous n’avez pas à portée de main, dans un dossier, un produit fini qui contient aussi votre logo en vectoriel, soit en .ai ou .eps, votre logo, aussi joli soit-il, risque bien de se pixelliser dès que vous voudrez l’agrandir. Par exemple pour le placer sur des affiches publicitaires. Et là, tout d’un coup, ce détail prend beaucoup plus d’importance… Faire appel à un professionnel, c’est aussi s’assurer qu’il saura vous fournir des fichiers de bonne qualité, et exploitables en toutes situations.

Créer un logo, ce n’est pas juste dessiner un bout de croquis sur un coin de feuille de papier. C’est créer une identité qui vous accompagnera pendant un moment. Pour rester satisfait de votre logo pendant quelques années, prenez le temps de bien le (faire) concevoir par un graphiste professionnel.

Audit-SI (1)

Le principe de l’audit de contenu

Un audit de contenu est une analyse qualitative et quantitative de la stratégie de contenu mise en place sur votre site internet. Il se penche sur les chiffres-clés, comme le nombre de visites ou le taux de rebond, mais il étudie aussi des données plus subjectives, concernant la pertinence des contenus et leur adéquation avec vos objectifs.

Vos contenus peuvent être très bien référencés et générer de nombreuses visites, sans pour autant avoir les retombées attendues. Être positionné sur des mots-clés en rapport avec votre activité ne garantit pas la qualité de vos contenus. Pour effectuer un audit vraiment complet, il faudra donc regrouper de nombreuses données pour former une étude probante, utile à l’amélioration de votre stratégie de content marketing sur le long terme.

Un audit de contenu permet de :

  • Déterminer les contenus jugés pertinents par votre cible,
  • Identifier les articles réutilisables ou à mettre à jour,
  • Établir les contenus manquants,
  • Trouver les contenus dupliqués,
  • Connaître le taux de transformation de vos contenus,
  • Évaluer la qualité éditoriale de votre site internet.

Étape 1: définir les objectifs et le rôle de vos contenus

Chacune de vos pages et chacun de vos articles doivent avoir un but précis. Ils doivent déclencher une action ou une réaction de la part de l’internaute. C’est en proposant du contenu qui répond précisément aux objectifs recherchés que vous pourrez convertir vos visiteurs et réaliser un marketing de contenu efficace.

Vos contenus peuvent avoir plusieurs rôles :

  • Augmenter votre notoriété auprès d’un public cible,
  • Donner des informations précieuses sur vos prestations,
  • Déclencher l’achat d’un produit ou l’inscription à un service,
  • Fidéliser vos consommateurs.

Lire : les 4 missions du contenu marketing.

Étape 2: étudier vos principaux KPI’s et le comportement des visiteurs

En deuxième lieu, pour savoir si votre contenu est pertinent, il est important de s’intéresser à certains indicateurs de performance. Vous pouvez tout d’abord évaluer l’efficacité de votre méthodologie en un clin d’oeil grâce à la courbe de trafic : si celle-ci augmente progressivement au cours du temps et connaît un pic de fréquentation lors de la publication de vos contenus, vous êtes certainement sur la bonne voie !

D’autre part, la durée moyenne d’une visite reste également un précieux indicateur pour savoir si vos textes accrochent votre cible. Il est difficile de vous donner un temps de référence, car cela dépend fortement de votre activité et des objectifs poursuivis. Mais les internautes doivent au moins rester le temps de lire l’article en entier (à vous de juger ce temps, selon la longueur de vos écrits) et d’effectuer l’action (un achat sera plus long qu’une inscription à la newsletter, par exemple). Si vos visiteurs restent moins d’une minute, alors vous avez peut-être un souci de contenu… et de conversion.

Autre mesure qui vous indique la qualité de vos contenus : le taux de rebond. Ce chiffre vous donne le pourcentage de personnes qui n’ont visité qu’une page de votre site avant de s’en aller. Un contenu de qualité doit accrocher le visiteur et l’inciter à lire d’autres articles ou à se rendre sur d’autres pages pour opérer la conversion. Encore une fois, il est difficile de donner un chiffre précis autour duquel le taux doit tourner pour être acceptable, celui-ci doit être interprété en fonction du contexte.
Pour plus d’informations sur les KPI’s, découvrez notre article : stratégie digitale, quels indicateurs de performance faut-il suivre ?
Outil recommandé : Google Analytics

Étape 3: mesurer l’impact de vos contenus sur les réseaux sociaux

Les réseaux sociaux constituent un excellent indicateur de mesure dans le cadre d’un audit de contenu. Si vos articles, vidéos ou infographies sont régulièrement partagés, cela signifie que vos contenus sont attractifs et qu’ils méritent d’être recommandés. Mesurer l’impact de votre Content Marketing sur les réseaux sociaux permet ensuite d’affiner vos types de contenus. Il y aura forcément des articles qui vont moins bien fonctionner que d’autres. À l’inverse, certains contenus vont être très viraux. A vous de faire le tri pour séparer le bon grain de l’ivraie.

Outils recommandés :

  • Shareaholic
  • SocialShare
  • Google Analytics, rubrique « Acquisition », puis « Réseaux sociaux »

Étape 4: rechercher le Duplicate Content, dangeureux pour votre référencement

Le contenu dupliqué est sévèrement puni par Google. Vous devez donc être particulièrement vigilant sur ce point (découvrez ici comment faire face au contenu dupliqué). Un audit de contenu passe forcément par la recherche de textes similaires non seulement sur votre site, mais aussi sur la toile. Le duplicate content interne survient lorsque vous classez un article (une fiche produit ou un billet de blog) dans plusieurs catégories ou que votre site se compose de plusieurs sous-domaines.

Quant au duplicate content externe, il peut venir de sites malveillants, ayant repris un de vos articles. De même, si vous êtes habitué aux traductions littérales d’articles anglophones, il se peut que d’autres blogs le fassent aussi. Par conséquent, vous vous retrouvez avec le même article ou presque.
Outils recommandés :

  • Positeo
  • Copyscape
  • Plagium

Étape 5: Analyse des résultats

Après avoir soigneusement étudié ces points, il ne vous reste plus qu’à analyser les données pour en sortir un plan d’attaque à court et long terme. À court terme, il s’agit de corriger les erreurs et de mettre à jour les contenus obsolètes, voire de les supprimer si une mise à jour n’est pas pertinente. Sur le long terme, il faudra repenser sa stratégie de content marketing et affiner sa ligne éditoriale en tenant compte des résultats obtenus.

Les différentes étapes décrites ci-dessus ne sont qu’une ligne directrice vous permettant d’avoir une meilleure idée des principaux éléments étudiés lors d’un audit de stratégie digitale. Dans la pratique néanmoins, celui-ci prend souvent une tournure bien différente, en fonction du secteur d’activité, des objectifs fixés ou bien des erreurs à rectifier. Si vous souhaitez vous aussi remettre votre site web sur les bons rails et développer une stratégie de Content marketing efficace et ROIste, n’hésitez pas à nous contacter. Notre équipe saura vous guider à travers les méandres du marketing de contenu et vous proposer la méthodologie la mieux adaptée à vos besoins.

L’intelligence artificielle va t-elle remplacer les SEO ?

Il ne se passe plus un jour sans que l’on entende parler d’intelligence artificielle ou IA. Ces machines, e ribots ou application capable de comprendre, de répondre et même d’anticiper nos besoins. Ils apparaissent comme une révolution. L’innovation des start up est eu plus haut portée notamment en Franche par les French Tech et notre Président Emmanuel Macron. Cette apparition en force de l’intermittence artificielle fascine, étonne et nous rend très perplexe. Elle soulève beaucoup de questions et nous fait apparaître un horizon où les robots du film iRobot de 2005? peuvent bien devenir réel (et le son déjà !). Ainsi je vous partage une pure réflexion autour du métier de consultant / expert SEO et de l’IA. Si l’intelligence artificielle est capable de comprendre, de créer et d’analyser, elle peut savoir comment bien optimiser un site pour le référencement naturel.

comment l’intelligence artificielle pourrait optimiser le SEO d’un site ?

Très simplement en se connectant à plusieurs base de données afin de récolter et d’analyser leurs données A commencer par la base de donnée dès dites-nous comprenant les pages, les textes, les liens et lus largement le contenu. Ensuite en se connectant à Google Analyrics pour récolter les statistiques de visites et de conversions. Ou encore à Google Search Console pour des données Plus large sur le crawl, le temps de chargement ou les mots clés. Elle pourrait aussi se connecter à d’autre sites comme SEM Rush, des logiciels de positionnement ou encore au Google AsWords planner (outil de planification des mots clés).

 

Une fois les connexions bien faites il serait facile et rapide à l’IA de déterminer les pages prioritaires, les mots clés à utiliser et d’optimiser les pages en conséquence.

Pourquoi les SEO ne devraient pas avoir peur de l’IA ?

Bien qu’intelligente une telle application n’en reste pas moins artificielle. En conséquence elle ne remplacera jamais l’intelligence humaine, la compréhension d’un secteur d’activité, le savoir faire et l’expérience d’un consultant SEO, la connaissance du produit ou service vendu sur le site.

Oui l’IA est capable facilement de comprendre les mots clés importants d’une page. Afin d’optimiser les meta données comme les balises titres, descriptions ou Hn. Elle devrait également avoir une facilité à créée des liens internes.

Cependant les phrase construisent seront-elles justes ? Dans le ton des autres pages ? La dimension communication et branding seraient-elles prise en compte ? Quelle prise de risque serait prise ? Les limites apparaissent très rapidement et le métier de consultant SEO a encore d’en beaux jours devant lui. Même si ce genre d’intelligence ferait sont apparition, un chef de projet SEO humain est indispensable. Notamment pour le netlinking.

Comment expliquer cet engouement autour de l’interlude ce artificielle ?

Selon moi c’est en même temps la fascination et la crainte qui crée cet engouement. L’intelligence artificielle peut apporter des avancées dans le SEO et faire gagner beaucoup de temps et d’argent. Imaginez une application qui fait tout le travail à votre place dans une logique « d’ordinateur ». Cependant l’expérience et le Savoir faire d’un expert est irremplaçable sa connaissance Du marché, de la demande et des différents partenaires ne peut pas être remplacée par une machine. De plus cela serait triste et poserait de réelles questions sociales et humaines. Pour la part je ne suis pas contre l’intelligence artificielle qui peut apporter des solutions dans le SEO ou d’autres domaines à condition qu’elle ne se substitue pas au travail humain. Toutefois je suis absolument contre les robots et autre substitue humain dans le monde professionnel comme personnel. A l’heure où la technologie n’a jamais été aussi avancé, l’humanité a besoin plus que jamais d’échanges et de rapports humains.

seo

Référencement naturel : les tendances 2018

Référencement naturel 2018

Le SEO (Search Engine Optimization – référencement naturel) a connu de nombreux changements en 2017. Vous avez peut-être constaté tout ou partie de ces points dans votre utilisation quotidienne du moteur de recherche, voire déjà modifié vos sites web en conséquence. Avant de commencer à prévoir ce qui peut et ne peut pas se passer sur Google pour le référencement naturel en 2018, et entre nous soit dit, il est très complexe de prévoir quoi que ce soit sur Google, faisons tout d’abord un tour d’horizon de l’année 2017 et de ses évolutions probables pour l’année à venir.

Modification de Google afin d’apporter une meilleure réponse à l’internaute

L’essor de Google AMP, la rapidité pour l’information

Lancée depuis quelques années, 2017 devait être l’année de Google AMP. Et ce fut le cas !

Bien que peu visible pour les internautes, cette petite révolution a surtout permis l’affichage rapide des pages des sites Internet.
Le format AMP, Pages mobiles accélérées, permet d’afficher une page liée à la requête de l’internaute rapidement. En effet, on ne charge pas l’ensemble du site – pas de style CSS, pas de menu, pas de données de navigation -, mais uniquement la page qui contient l’article.
Très utilisé par les sites d’information, on peut désormais à la lecture d’un contenu passer d’un article d’un site A à celui d’un site B. Encore une fois, avec cette amélioration, Google pense à l’internaute mais pas à la captation de visiteur sur un site précis.

On a vu plusieurs affichages différents, mais il semble que l’affichage qui restera est bien celui de l’éclair blanc sur fond gris, à la fois sur des résultats classiques ou en cartes.

L’arrivée de la position 0 appelée aussi « Featured Snippet », une réponse directe

Ce nouveau résultat de recherche naturelle est arrivé cet été en France. Nous avions déjà des données qui s’affichaient et apportaient des résultats précis grâce au Knowledge Graph. Avec l’arrivée de la position 0, c’est tout un ensemble de réponses qui est directement fourni à l’internaute depuis Google.

Les positions 0 ressortent principalement sur les requêtes de longue traine. Par exemple « Comment monter un meuble de salle de bain ». Nous avons dès lors un résultat qui nous donne des indications sur le montage du meuble acheté sur le site Cdiscount. Le résultat n’est pas forcément pertinent pour les internautes qui n’ont pas ce meuble en question. C’est également pourquoi Google a ajouté les requêtes les plus posées en lien avec celle tapée : les « People Also Ask ».

Comment être en position 0 ? Voici quelques indications pour vous faciliter la tâche :

  • – Faites de votre site, le site le plus autoritaire, celui qui a le plus de poids aux yeux des moteurs ;
  • – Soyez déjà sur la première page de Google sur l’expression-clé recherchée ;
  • – Ayez un contenu de fond d’au moins 3000 caractères / signes – soit 500 mots environ – avec un premier paragraphe qui répond à la question posée ;
  • – Rédigez votre balise H1 avec la question posées et travaillez toutes les balises sémantiques avec des variantes (title, H2, fil d’Ariane).

D’autres facteurs pourront être pris en compte comme la présence de microformats, avoir un bon taux de clics, le temps de chargement de votre site, le nombre et la qualité des backlinks sur votre page, le volume de recherches…

« People Also Ask », quand toutes nos questions sont enregistrées par Google…

Comme son nom l’indique, les « Autres questions posées »en français (PAA en anglais) ont fait leur apparition cette fin d’année 2017. Ce n’est pas une surprise, mais désormais Google nous montre qu’il enregistre bien toutes nos requêtes et l’ordre dans lequel nous les tapons.

A chaque clic, de nouvelles questions peuvent être ajoutées et la navigation au clic sur les questions avec leurs réponses peut être infinie.

Entre la position 0 et les PAA, on voit que le SEO évolue vers une utilisation plus marketing. Il est désormais important de trouver des micro-moments pendant lesquels apporter une solution à une question que peuvent se poser les internautes.

Les Google Posts et Google + qui essaie – encore ! – de tirer son épingle du jeu

Google n’a de cesse de promouvoir son réseau social. Suite à un échec de Google + avec très peu d’utilisateurs réguliers, Google joue sur ses fiches Google My Business. Ces cartes qui vous permettent de trouver des informations sur les heures d’ouverture, l’adresse, etc., sont aujourd’hui, très visibles et utiles pour les internautes, se voient complétées par une nouveauté : les Google Posts.

Ici, une entreprise qui possède une fiche Google My Business pour sa présence locale peut se connecter à son interface et poster des informations pratiques et des nouveautés, qui sont ces « posts ». Google vous permet de les personnaliser avec des CTA – Call to Action – qui permettront aux internautes de réserver, de s’inscrire, d’acheter ou de profiter des promotions du moment. Attention cependant, ces Google Posts sont éphémères et ont une durée de vie d’environ 7 jours.

Augmentation de la taille des méta-descriptions

Dernière nouveauté de cette année (il reste encore quelques jours… nous verrons bien si c’est la der des ders), les métadescriptions affichent désormais plus de caractères.

Ces traditionnelles deux lignes grises très utiles pour inciter les internautes à cliquer sur votre résultat plutôt que sur celui du voisin sont désormais plus longues et vous permettent de proposer encore plus de description sur la page qu’il est possible de consulter ensuite.

Nous passons donc de 140 caractères à 230 caractères environ, espaces compris, voire plus pour certains résultats. Mais afin d’être bien certain d’avoir une métadescription non tronquée, nous vous invitons à ne pas dépasser les 230 / 240 caractères pour le moment.

Encore plus de protection des données des internautes avec le https

Nouveauté de cette année pour les internautes : des données de navigations de plus en plus sécurisées avec le protocole HTTPS.

Google a indiqué officiellement qu’un site en HTTPS n’aurait pas un positionnement meilleur qu’un site en http. Aujourd’hui, nous pouvons toujours avoir les deux typologies de protocole dans les résultats de recherche mais avec la mention « sécurisé » pour l’un et pas pour l’autre.

Le SEO n’est peut-être pas impacté mais le comportement des internautes lui, peut clairement l’être.

Des mises à jour toujours plus orientées « expérience utilisateur »

L’intelligence artificielle made in Google avec Google Fred et Rank Brain

L’histoire de Google Fred commence il y a bien longtemps, mais nous l’avons rencontré qu’en début d’année. Une évolution des positions, des CTA et tous les autres mouvements qui peuvent alerter les référenceurs ont été visibles en mars dernier.

Google Fred travaille sur la qualité globale des sites internet. Pas uniquement sur le contenu ou pas uniquement sur les recommandations techniques, mais bien sur la qualité dans son ensemble. C’est-à-dire qu’un site sera considéré comme de mauvaise qualité si son graphisme est peu lisible, s’il a beaucoup de liens et beaucoup de publicités. La conséquence est sans appel : une baisse dans le classement des positions.

Rank Brain, quant à lui est le cœur même de l’IA de Google. Ce nouvel algorithme traite les données des internautes comme Google Colibri (qui comprenait l’ensemble d’une requête et ne faisait plus le traitement mot à mot) grâce à du machine learning. Il apprend seul et propose seul les résultats les plus probant pour la requête de l’internaute.

Avec Rank Brain, il faut réellement penser internautes plutôt que robots. Le positionnement se fera grâce à la connaissance de la cible du site. Ainsi, les CTA et conversions seront imaginés pour la cible, les balises seront retravaillées pour penser internautes et l’ergonomie du site sera irréprochable.

A eux deux, les internautes sont au cœur de la navigation des sites.

Plus besoin de taper, la recherche vocale et Google Home s’occupent de tout…

La recherche vocale comme son nom l’indique est le fait de parler au moteur de recherche plutôt que de taper sa requête. On a vu son essor avec Google Now, les « Ok Google » mais surtout avec la Google Home.

Ce sont souvent des questions qui sont posées à Google, c’est pourquoi Google affiche beaucoup de données sur les questions (position 0 et PAA notamment). On considère que d’ici 2020, 50 % des recherches seront vocales, c’est pourquoi il est primordial de penser aux questions que peuvent se poser vos visiteurs lorsque vous optimisez votre site.

Et comment l’optimiser ?

  • – En utilisant des microformats pour bien organiser vos informations auprès de Google,
  • – En hiérarchisant vos contenus avec des balises qui reprennent les expressions de vos visiteurs,
  • – En demandant à vos clients ce qu’ils recherchent,
  • – En étant bien sûr que votre site est mobile friendly, c’est-à-dire qu’il charge et s’affiche correctement sur les terminaux mobiles,
  • – En utilisant toujours plus la sémantique et tout ce qu’elle peut apporter à vos visiteurs.

Une expérience accélérée sur tous les supports grâce à l’index mobile first

En cette fin d’année 2017, l’index mobile first est arrivé en France. Il n’était pas attendu avant 2018, et pourtant, il est bel et bien là ! Google ne différencie plus les sites internet qu’il affichait sur mobile et ceux affichés sur ordinateur. Désormais si votre site est visible sur mobile, alors il le sera sur ordinateur. Et si votre site est bien positionné sur mobile, alors il le sera aussi sur ordinateur.

Afin de travailler sur les temps de chargement qui doivent être optimaux pour les visiteurs, Google conseille via son interface Test My Site d’avoir un temps de chargement inférieur à 3 secondes. Nous savons tous que nous sommes plus impatients sur mobile, c’est pourquoi, les sites mobiles étaient plus optimisés pour répondre rapidement. Google a donc choisi d’appliquer cette politique pour tous les sites et sur tous les supports.

Et de nouveaux outils qui se développent…

Dernier test en cours chez Google, les « Answers box » vidéo qui permettent de données les mêmes informations que le Knowledge Graph sur nos célébrités préférées, mais cette fois-ci en vidéo de la bouche de la célébrité en question !

La véracité des informations alors délivrées ne sont plus à remettre en question.

Encore en phase de test, seuls certains chanceux peuvent y avoir accès.

Et pour 2018 : comment le SEO peut-il évoluer ?

Comme nous venons de le voir, sur l’année 2017, c’est l’internaute qui est clairement au cœur du moteur de recherche, afin de faire en sorte qu’il trouve son information rapidement et efficacement, sans se tromper : ce sont ces points que Google va continuer à travailler, pour pousser la navigation et l’expérience utilisateur à leur maximum. Le SEO n’est manifestement pas encore mort, même si certains lui ont déjà organisé un enterrement de première classe…

De notre point de vue, ce n’est plus uniquement le SEO d’un site qu’il faut travailler mais bien les réponses marketing que l’on peut apporter à l’internaute. Il faut être bon techniquement pour que Google trouve l’information rapidement sur le site. L’ergonomie doit également être excellente pour que Google nous accorde le crédit de pousser notre site plutôt qu’un autre. Le design passe en second, il faudra cependant que le site reste « joli » pour les internautes, mais aussi impactant afin de rester en mémoire.

Tout ceci représente beaucoup de challenges pour les nouveaux sites à sortir où les métiers de référenceur, UX design et développeur devront travailler main dans la main pour y arriver.

Le SEO en 2018 devrait donc être axé sur l’optimisation des contenus, la structuration, les nouveaux formats via les applications WPA.

Optimisation de contenus toujours plus travaillée

Avoir des contenus c’est la base de tout site Internet. Oui mais, au-delà d’avoir des sites riches en contenus, il faut qu’ils répondent à un questionnement, à une problématique des internautes. Ce n’est pas nouveau, mais ça va mieux en le (re)disant. C’est pourquoi l’optimisation joue un rôle primordial. Tout d’abord dans la recherche du champ lexical et des expressions-clés qui seront à travailler, mais également sur les contenus que l’on mettra en exergue à la fois pour les internautes mais aussi pour les moteurs de recherche.

Ajouter des éléments de structuration

Nous avons évoqué ci-dessus les microdonnées à plusieurs reprises, ce sont ces « bouts de code » qui permettent de structurer des éléments pour montrer aux robots quelles informations ils doivent faire remonter. C’est grâce à ces microdonnées – autrement appelés microformats, données enrichies – que l’on voit les « rich snippet », ces étoiles de notation, ces dates et lieux de concert, ces prix de produits, etc. qui apparaissent directement dans les résultats de recherche.

Impactants pour l’internaute, utiles pour les moteurs de recherche, il est essentiel de ne pas passer à côté de ces éléments pour structurer toutes les informations de votre site.

Vers de nouveaux formats de contenus : les applications PWA

Les PWA (Progressive Web App) sont un nouveau format qui voit le jour sur les téléphones sous système Android, pour le moment. Nous connaissons les applications classiques que l’on télécharge sur notre téléphone et nous connaissons les web app qui nous permettent de nous connecter depuis un navigateur.

Désormais nous pouvons associer le meilleur des deux grâce aux PWA et ainsi améliorer l’expérience utilisateur.

Comment les PWA améliorent l’expérience utilisateur ?

  • – Le chargement est instantané
  • – L’utilisation est rapide
  • – Les notifications Push accessibles même si l’application est fermée
  • – Le responsive design : la progressive web app a le même design que votre site et est responsive pour une expérience idéale sur mobile
  • – Les données sont sécurisées car le protocole HTTPS est obligatoire
  • – Elle est toujours disponible sur votre écran d’accueil et l’internaute peut s’y rendre un clic.

Google fait la promotion des Progressive Web App comme étant : « Progressive Web Apps are user experiences that have the reach of the web, and are: Reliable, Fast, Engaging. This new level of quality allows Progressive Web Apps to earn a place on the user’s home screen ».

Les Progressive Web App sont des expériences utilisateurs poussées et sûres – chargent instantanément et ne plantent jamais-, rapides – répondent rapidement aux interactions de l’utilisateur avec des animations et sans scroll allongé -et engageantes – on a l’impression d’avoir un app native sur son smartphone avec une expérience utilisateur poussée -. Ce nouveau niveau de qualité permet aux Progressive Web App de prendre place sur l’écran d’accueil de l’utilisateur.

Alors pour 2018, le SEO continuera d’être utile et utilisé pour apporter une réponse pertinente à l’internaute, à la fois depuis les résultats de recherche mais également en direct sur le site quand le visiteur viendra chercher des compléments d’informations.

Vous avez des questions complémentaires sur le référencement naturel ? Vous souhaitez un accompagnement SEO personnalisé ? Faites appel aux experts SEO de Web Agency Maroc