Par , le 25 mars 2013

Compte-rendu du SEO Campus 2013

SEO | 10

Les 14 et 15 mars dernier, et malgré quelques petits soucis de TGV et de neige je me suis rendu au SEO Campus, à L’usine (Paris) pour deux journées de conférence autour du SEO. Deux journées riches en rencontres et en interventions de qualité. Voici un résumé des faits marquants et de ce que j’en ai retenu.

EDIT du 10/12/2014 : Retrouvez le debrief du SEO Camp’us Lille de décembre 2014

SOMMAIRE

Jour 1

Le métier de consultant est-il devenu has been ?

A retenir de cette table ronde : non le métier n’est pas devenu has been (ouf ^^). Néanmoins, le consultant doit s’adapter aux mutations du web. Savoir utiliser les réseaux sociaux à bon escient est par exemple une nécessité. Avoir un background technique est également un pré requis et un plus apprécié par les recruteurs. De même un consultant doit être en mesure de comprendre les fondamentaux du SEA sans forcément maîtriser la discipline jusqu’au bout des doigts.

Le netlinking post Penguin, ce n’est pas pour les manchots !

Sébastien Monnier, ancien quality rater de chez Google, nous a présenté sa vision du linking post Penguin update. Il a d’abord rappelé que Penguin s’attaquait aux techniques les plus spammy :

  • trop d’ancres exactes
  • suroptimisation
  • hausse anormale du nombre de liens

Il nous a également rappelé qu’avec le développement des techniques de netlinking et la recherche absolue du spot où poser un BL, on avait oublié le principal, à savoir qu’un lien existe pour une raison.

Sébastien nous a invité à nous mettre à la place d’un quality rater. Le quality rater examine, sur un site, à la fois les ancres, les habitudes de linking et le contenu. Il vérifie la légitimité globale du site. Google ne peut pas savoir si un lien a été acheté ou échangé, il effectue des déductions en fonction de suppositions.

Le bon lien est donc un lien naturel : il apporte une explication, une référence, il est utile à l’internaute. L’optimisation du lien doit arriver au second plan.

La prés ici : http://fr.slideshare.net/woptimoslides/techniques-de-netlinking-aprs-google-penguin-seo-campus-2013?ref=http://www.woptimo.com/2013/03/compte-rendu-du-seo-campus-2013/

Du link building au link earning ?

Une conférence assurée par Laurent Peyrat à laquelle j’ai été particulièrement sensible. Laurent nous a donné quelques conseils pour réaliser un linking performant et « sous le radar ». A l’heure actuelle, ce qui est filtré, ce sont des profils pour lesquels on observe une augmentation anormale du nombre de liens, où des liens ont manifestement été achetés , ou encore posés sur des pages sans aucun rapport contextuel. L’analyse de Laurent repose sur le tryptique :

  • popularité (en gros le pagerank transmis par les liens, modulo le nombre de domaines)
  • confiance ( si Google accorde du trust ou non aux domaines référents)
  • pertinence (l’ancre utilisée et le contexte de la page)

Pour résumer la logique de Laurent, pour toute campagne de netlinking, il faut dissocier les 3 notions. Pour gagner en pertinence, par exemple, on publiera quelques CP avec des ancres optimisées. Pour gagner en popularité, on enverra des liens depuis des annuaires, des profils forums : pas besoin de soigner l’ancre, on recherche avant tout le jus. Pour gagner en confiance (trust), on utilisera les RP, les blogs influents, les sites officiels, etc.

L’idée est donc ne pas être trop gourmand : quand on pose un lien, il ne faut pas avoir à tout prix une ancre exacte, une page à gros PR et un domaine hyper trusté. Il faut savoir doser chacun des trois en fonction du support utilisé et du volume.

La prés ici : http://fr.slideshare.net/LaurentPeyrat/le-linking-seo-avanc?ref=http://www.peyrat.fr/le-linking-avance-en-pratique

Un lien vaut mieux que deux tu l’auras

Cette conf’ était présentée par Sébastien Bulté de l’agence Résonéo. Il y était question de l’outil de désaveu de liens lancé par Google il y a quelques mois. L’occasion pour moi d’en découvrir un peu plus sur cet outil. Quelques infos pratiques à retenir :

  • dans le fichier de BLs « désavoués », il faut utiliser le signe dièse # pour chaque annotation.
  • il ne faut l’utiliser qu’en dernier recours. Rien se sert par exemple de l’utiliser si l’on observe aucune perte de positions significatives

Pour Sébastien, les liens factices ont ces caractéristiques :

  • liens toutes pages
  • hors contexte
  • ancres optimisées
  • une fréquence de création non naturelle

Enfin, à noter qu’à la manière de la canonical, le désaveu reste une indication et non une directive.

La prés ici : http://fr.slideshare.net/meuhsli/seocampus2013-resoneo

Auditer son netlinking

Dixon Jones, CEO de Majestic SEO est venu nous parler de sa solution d’analyse de backlinks. Il a notamment développé l’idée que les liens sont comme des relations sociales. Il est également revenu sur les deux indices utilisés par Majestic pour qualifier un profil de liens : citation flow (indice basé grosso modo sur le nombre de liens) et trust flow (indice basé sur la qualité du voisinage de ces liens). L’idée c’est qu’un site avec un citation flow élevé et un trust flow faible bénéficie de beaucoup de liens mais que ceux-ci sont de faible qualité. Il est donc susceptible d’être frappé par Pingouin.

SEO Metrics : prenez des mesures pour évaluer vos résultats SEO

La première conférence d’Adrien Ménard (Botify.com) était axée sur l’analyse de logs et l’analyse structurelle pour le SEO. Adrien nous a expliqué comment exploiter au mieux les data issues des logs serveurs, de la structure de site (via crawl) et des visites SEO pour prendre des décisions stratégiques. Il a ainsi mis en évidence plusieurs types de métriques : taux de remplissage des balises, contrôle des temps de réponses, répartition des liens internes, etc. En croisant les données et en les interprétant, l’objectif est ainsi de parvenir à une meilleure indexation et à une mise en valeur plus juste des pages stratégiques sur un site.

La deuxième conférence nous était proposée par Antoine Leven, qui nous a présenté l’outil Search Metrics qui offre des données très intéressantes pour le SEO.

  • signaux sociaux sur URLs
  • relevé de positions
  • collecte de mots-clés en permanence pour alimenter son corpus
  • information sur les compétiteurs
  • intégration d’outils de web analyse

A noter que SearchMetrics dispose de son propre panel de mots-clés. A partir de cela, il est en mesure de calculer au jour le jour un indice de visibilité global par domaine. Les courbes présentées sur certains gros pontes de la presse française étaient d’ailleurs très intéressantes…

Analyseur de logs, crawler de site : comment produire des indicateurs avancés pour son SEO

Jean Benoit nous a ici parlé de crawler et d’analyse de logs. J’ai pris peu de notes pendant la présentation, car le sujet était captivant. A retenir néanmoins qu’en analysant les access logs et et les croisant avec des données de structure, on peut obtenir des tas d’informations utiles :

  • contrôler les temps de réponse : des perfs qui s’améliorent ont des conséquences sur le volume de pages crawlées
  • segmenter les passages de Googlebot en fonction du type de pages
  • segmenter les passages de Googlebot en fonction du code retour
  • etc.

Bref, beaucoup d’indicateurs de performances très intéressants pour un référenceur…

La prés ici : http://fr.slideshare.net/moingt/crawl-analyselog?ref=http://www.watussi.fr/crawl-et-analyse-de-logs-seo-seocampus-2013

Les nouveautés sur le front du référencement local

Matthieu Gheerbrant a abordé les stratégies à adopter pour le référencement local, et notamment pour une meilleure visibilité en « one box « . Quelques bons conseils ont été donnés :

  • si l’enseigne dispose de plusieurs implantations, créer une fiche par établissement (en effectuant par exemple un transfert groupé)
  • populariser ses fiches Google+ Local, par exemple en intégrant un lien vers celles-ci sur son site
  • utiliser à juste titre les microdonnées
  • si l’enseigne dispose de plusieurs zones de chalandises mais un seul emplacement, prévoir des landing pages géo localisées
  • développer son nombre de citations (via annuaires locaux notamment)

Il a également insisté sur la nécessité de soigner au mieux son image de marque, par exemple en ajoutant des photos de qualité sur son profil Google+ Local.

Booster sa visibilité dans Google News

Cette conférence animée par Renaud Perrin a permis de donner quelques pistes sur l’optimisation du référencement dans Google Actualités. Gross modo, le ranking dans Google Actu est lié à trois critères : l’autorité du site, la performance, et le contenu. Plusieurs points d’entrées à Google pour l’indexation : la page d’accueil, l’article, le sitemap news.

A retenir :

  • il faut dater l’article
  • il faut illustrer l’article
  • il faut utiliser les entités nommées dans le title pour avoir une chance de remonter dans « A la une »

Renaud nous a encouragé à mettre en place nos propres tests et analyser l’effet sur la visibilité dans Google News. Par exemple, utiliser la balise link rel=standout…

La prés ici : http://fr.slideshare.net/moingt/crawl-analyselog?ref=http://www.watussi.fr/crawl-et-analyse-de-logs-seo-seocampus-2013

Jour 2

Table ronde : « SEO en 2013, l’année de l’Inbound Marketing »

Cette table ronde était animée par Laurent Bourrelly. Il y était question d’inbound marketing. L’occasion de revenir sur ce buzz word. Ce que j’en ai retenu : à l’heure actuelle, il est important de créer une histoire autour de sa marque, d’avoir une vraie offre, et de savoir être différenciant dans sa façon de communiquer. Si vous n’êtes pas capable de résumer en une phrase vos valeurs, alors vous avez du pain sur la planche…

Le SEO et les moteurs de recherche interne

Chalotte Prevost-Gosselin de 01.net nous a parlé d’analyse de moteur de recherche interne. Des pistes d’optimisations intéressantes et de nouveaux KPI comme taux d’entrées, taux de sorties par exemple peuvent être mis en place en pluggant un outil statistique au moteur de recherche. Un exemple concret : créer des raccourcis dès la page d’accueil vers les contenus recherchés dès la home. Elle nous a également montré que l’ergonomie de la page de résultats était très importante : fil d’Ariane au-dessus des résultats, miniatures, etc.

Le Knowledge Graph : bond technologique ou évolution logique ?

Sylvain Perronet a su de manière didactique présenter le fonctionnement du Knowledge Graph. Il nous a expliqué que Google utilisait des ontologies pour construire le KG. Les ontologies sont des modèles de données représentant les concepts et leurs relations :

  • objets de base = entité
  • attributs = des caractéristiques
  • relations
  • classes = entités partageant des relations

Exemple pris sur Kirsten Dunst

  • Kirsten Dunst = entité nommée
  • est une = activité
  • actrice = attribut
  • a joué Mary Jane = relation

Pour construire ces ontologies, Google utilise actuellement deux choses : des données agrégées par des humains (via Freebase notamment) et du scrap sur wikipédia. Toute la difficulté est ensuite de fusionner les données pour construire des graphes les plus exhaustifs possibles.

Le knowledge graph présente plusieurs avantages pour Google : pouvoir différencier deux entités lorsqu’elles présentent une homonymie, proposer des suggestions de recherches connexes, etc. Pour le SEO, on peut imaginer quelques façons d’en tirer avantage : créer une page wikipédia, ou y modifier des contenus…

La prés ici : https://www.lri.fr/~syp/peyronnet-seocampus2013.pdf

Responsive design : solution ultime ?

Didier Wassout nous a parlé de responsive design sous l’angle SEO. A retenir : pour le crawl, Google utilise un user-agent spécifique. Avec une version responsive, il y a plusieurs avantages : une seule URL pour les like, tweet, etc., préservation du link juice, pas de plan de redirection à mettre en place. Mais aussi des inconvénients : dans Google Analytics, tout le trafic est agrégé, ce qui oblige à mettre en place un filtre sur support, le temps de chargement peut être long car on va potentiellement masquer un contenu qui sera téléchargé.

La question à se poser avant d’envisager une version mobile ou tablette, c’est de savoir si les utilisateurs auront les mêmes attentes sur tous les devices. Si ça n’est pas le cas, le responsive n’est pas forcément la meilleure solution…

Améliorer son accessiblité

Cette conférence a remplacé celle initialement prévue sur le HTML5. Il y était question de bot herding, de siloing et de PR sculpting. R. Debrabant a fait le tour de ces différentes problématiques que l’on rencontre notamment sur les sites à fort volumétrie de pages.

« Positivez face au negative SEO » : fantasmes et réalités autour du négative SEO

Dernière conférence des deux jours, avec une salle comble pour écouter Paul Sanches, Aurélien Delefosse et Laurent Bourelly nous parler du negative SEO. Les intervenants ont balayé la plupart des techniques existantes pour plomber le référencement d’un site :

– hacking : intrusion serveur, faille XSS, DDOS

– duplication : voler un contenu et contacter l’hébergeur du site original pour qu’il ferme le site, dupliquer via un web proxy, etc.

– linking : ajouter massivement des BLs puis les supprimer, contacter des partenaires pour qu’ils suppriment des liens, linker le site cible depuis des sites de mauvaise qualité, injecter du code HTML pour alourdir le chargement des pages, etc.

On y a aussi parlé e-reputation et negative analytics (simuler des visites sur des mots-clés bidons par exemple).

Pour se protéger, quelques conseils ont été donnés :

– checker régulièrement si on n’est pas victime de duplicate content

– checker l’évolution des BLs dans le temps

– checker les logs

– à savoir : un domaine « âgé » sera moins faillible aux attaques de type duplicate content

Bien entendu, il est préférable de commencer à optimiser correctement son site plutôt que de recourir à ce genre de pratiques 🙂

En bref

Plein de sujets très intéressants, pas mal d’idées à creuser et des échanges sympas avec le petit monde du référencement, notamment, @frenchtouchseo, @aymerictwit, @jambonbuzz, @woptimo, @sbillard, @kikseo, @meuhsli. Vivement la prochaine édition !

Partager l'article :

10 commentaires
  • C’est la première fois que je participais à cet évènement et je n’ai pas été déçu. J’ai pu entre autres assister à la conférence d’Alexandre Santoni sur la gestion de réseaux de sites SEO. J’ai appris beaucoup de choses. J’ai loupé des conf dont vous faites un bon rapport, merci pour ce compte rendu détaillé !

  • j’ai jamais participé mais apparemment il faut essayer.
    Merci pour l’article

  • Joli article ! Bravo Antoine, belle qualité rédaction pour une retransmission du Seo Campus 2013, comme s’y on y était, sans les inconvénients du déplacement à Paris !

  • Le Seo Campus, j’en ai entendu parler mais à vrai dire, je ne connais pas très bien de quoi il est question, heureusement que cet article s’atèle à le faire avec maestria.

  • Excellent compte-rendu, je pense que tu rapportes l’essentiel. Un de mes collaborateurs y était aussi, mais c’est bien d’avoir d’autres sons de cloche.


Vous souhaitez réagir ?

En soumettant ce commentaire vous donnez à Silicon Salad le droit de citer vos propos ainsi que votre nom/site. Tous commentaires dégradants ou hors-sujet peuvent-être supprimés par décision de l’auteur. Votre e-mail, ne sert qu’à des fins d’authentification, il ne peut-être ni partagé ni diffusé.
Vous pouvez commenter avec la syntaxe Markdown. En savoir plus

Article précédent
L’audit webanalytics avant la refonte d’un site : #keskC ?