Par , le 13 mars 2012

SEO Campus 2012 : impressions et compte-rendu

SEO | 17

Jeudi et vendredi dernier avaient lieu à Paris deux jours de conférence à l’Usine, à l’occasion du SEO Campus. C’était la première fois que j’assistais à un tel événement et globalement, j’ai été séduit par la qualité des interventions et par l’organisation impeccable de la team SEO Camp.

Au final, je suis sorti de là avec de nouvelles idées mais aussi, paradoxalement, avec une tonne de nouvelles questions…. Je vais m’attacher ici à vous faire un compte rendu des conférences auxquelles j’ai assistées, en me focalisant sur les informations les plus pertinentes que j’ai pu en extraire.

Conférences du jeudi 8 mars

Fraîchement débarqué à l’Usine, je filais tout droit vers la séance d’ouverture de la journée. Autour de la table, Laurent Bourelly, Paul Sanches, Olivier de Segonzac et Alexandre Villeneuve animaient les débats. Montée du « not provided » dans les stats analytics, Google Panda, les nouvelles interfaces homme/machine pour la recherche, plusieurs sujets ont été abordés.

A retenir :

  • le trafic « not provided » n’empêche pas (pour le moment) d’observer des tendances globales dans les mots-clés remontés. Laurent Bourelly nous a conseillé à ce propos de sortir un peu la tête de l’outil d’analyse pour se concentrer davantage sur la recherche de trafic ;
  • l’arrivée de Google Voice/Siri est une innovation majeure dans le sens où pour la première fois, il y a une couche applicative entre l’internaute et la recherche proprement dite sur les moteurs ;
  • avec Search Plus Your World, Google ne favoriserait-il pas le repli de l’internaute « dans sa bulle », via les résultats partagés par ses contacts ? ;
  • Search Plus Your World et protocole https vont de paire : espérons donc que le premier fasse un flop ;
  • scoop : David Degrelle est un pur white hat ! 😉

SMO : les stratégies efficaces

David Degrelle de l’agence 1ère Position nous a ici livré quelques recommandations sur les stratégies SMO à mettre en oeuvre pour un annonceur. D’après lui, Facebook n’est pas un bon générateur de trafic/vente vers le site cible. Tout est conçu pour qu’un internaute connecté à Facebook reste dans Facebook. Selon lui, le fait de simplement publier des statuts sur la plateforme sociale ne permet pas de générer un trafic qualifié.

Pour mener à bien une véritable stratégie SMO, il faut s’intéresser en amont aux discussions des utilisateurs. Il est crucial également de mettre en place un blog : on peut ainsi envoyer les internautes depuis Facebook vers un billet de blog, où ils trouveront un contenu moins « froid » que sur le site institutionnel, et où ils pourront interagir via les commentaires.

Important également, ne pas dupliquer les contenus publiés sur Facebook et Twitter car l’audience est sensiblement différente en termes de profil et d’attente. Enfin, pour ce qui est de la combinaison SEO/SMO, David a rappelé que le +1 avait pour le moment une incidence sur les résultats de recherche mais d’un point de vue hors algorithmique (seulement en étant connecté) et que Google semblait prendre en compte les mots-clés compris dans le tweet vers une URL.

Black hat : évaluer les risques

Après cette première conférence « sociale », je me suis dirigé vers la conférence de Paul Sanches aka SEOBlackOut. Sans surprise, la conférence tournait autour du black hat (et du black hat malin). J’ai beaucoup apprécié le discours sans langue de bois de Paul. Clairement pour lui, le simple fait de publier de pseudos « communiqués de presse » plonge déjà un référenceur du côté obscur. Il nous a ainsi clairement démontré qu’il y avait plusieurs stratégies dans le black hat : grossièrement, soit on crée des satellites et des liens tous azymuts et on ranke sur le short term, soit on adopte une tactique plus diffuse pour ranker sur le long terme.

Par ailleurs, il a précisé que l’enjeu était radicalement différent selon qu’on travaille pour une agence ou que l’on soit éditeur.

Il a ensuite cité quelques causes et conséquences de pénalités, puis avancé quelques solutions pour les éviter :

  • causes : achat de liens, contenu auto., cloaking, suroptimisation, duplicate content (par ex. un agrégateur qui reprend des contenus), cause inconnue ;
  • conséquence : perte de PR, filtres divers ;
  • solution : diffuser les liens dans le temps, varier les ancres, moins se focaliser sur le PR ou sur dofollow/nofollow, travailler derrière un VPN, utiliser des WHOIS anonymes pour ses satellites, etc.

Le référencement des vidéos

La SEO rock star alias Laurent Bourrelly est ensuite entrée en scène pour nous présenter quelques astuces sur le référencement des vidéos. Le discours était orienté buzz/communauté, avec un focus sur la plateforme YouTube. Selon Laurent, la vidéo est le prochain Graal des référenceurs, dans le sens où peu de personnes sont encore au fait de son potentiel de trafic. Laurent nous a ainsi montré qu’il fallait par tous les moyens susciter l’intérêt de la communauté, afin d’augmenter rapidement son nombre de vues : titre accrocheur, bonne miniature et des commentaires en masse dès le départ (possibilité d’en acheter sur des plateformes spécialisées).

D’autres éléments à retenir :

  • créer des tags uniques pour remonter dans les vidéos associées sur YouTube ;
  • faire preuve de créativité ;
  • avoir en ligne de mire le top vues.

Crawl de Google, caches, performances et CDN

Un sujet d’ordre plus technique a ensuite été abordé, celui de la performance, avec une présentation d’un membre de l’agence Cedexis. A travers quelques chiffres, il nous a tout d’abord montré qu’un gain de quelques millisecondes dans le temps de chargement d’une page pouvait considérablement doper un trafic. N’étant pas expert en administration système et réseaux, j’avoue avoir décroché par moments. Voici néanmoins ce que j’en ai retenu :

  • Google affecte un temps CPU (temps d’exécution) à chaque site : il faut donc se débrouiller pour lui fournir le plus de pages lors de cet intervalle de temps ;
  • il est judicieux d’utiliser un CDN, afin de soulager l’infrastructure d’origine en dupliquant les contenus sur d’autres machines, et en les servant « localement » ;
  • en identifiant les robots de Google, il est possible de faire en sorte que le crawl soit optimisé entre le serveur de la firme américaine et l’hébergeur le plus prêt…

Quand les moteurs de recherche apprennent tout seul

J’ai ensuite assisté à la présentation de Philippe Yonnet sur les algorithmes d’apprentissage automatique.

Philippe Yonnet et le machine learning

Là aussi il fallait s’accrocher pour ne pas perdre le fil. A retenir :

  • derrière Panda se cache sûrement un algorithme d’apprentissage automatique ;
  • l’objectif est la lutte anti spam : on demande à des humains d’identifier le spam dans un corpus de documents. A partir de là, l’algorithme essaie de répliquer la même « logique » ;
  • pour classifier, Google utilise sûrement la méthode SVM. Pour avoir des résultats les plus fiables possibles, il faut réussir à augmenter la marge de sécurité séparant deux ensembles.

Pagination & Navigation à facettes : les bonnes pratiques

J’avais beaucoup d’attentes pour cette conférence et je n’ai pas été déçu. Emmanuel Benmussa a su rendre le sujet accessible à l’audience présente. Il nous a tout d’abord invité à se poser les bonnes questions lors de la construction des filtres de la navigation à facettes. Par exemple : ai-je assez de contenu pour répondre aux critères des filtres ? Si 99% de mes produits sont de la même marque, est-ce pertinent de créer un filtre marque ? Le danger étant de créer trop de filtres pour le volume de produits disponibles…

L’intervenant a bien insisté sur la nécessité de standardiser ses URLs pour éviter l’écueil du duplicate d’URLs. Il a également mis en garde contre le risque de créer un nombre infini de pages disponibles au crawl. Pour contourner ce problème, il faut au maximum contextualiser : le choix d’un filtre doit limiter les choix possibles pour les filtres suivants. Au fur et à mesure que l’on descend dans le processus de filtrage, on va rendre certains filtres invisibles aux crawlers… Par ailleurs, le choix des filtres indexables doit se faire de manière logique, en identifiant les combinaisons « qui font sens ».

Pour la question de la pagination, Emmanuel a proposé une solution qui consiste à ne rendre indexable les pages paginées que lorsque tous les filtres indexables ont été sélectionnés.

Comment rendre visible le plombier d’Aurillac ?

Ce premier jour de conférences s’est terminé par une présentation d’Aurélien Delefosse et Matthieu Gheerbrant de l’agence Sartepenso sur le référencement local. Là encore, de bons rappels et de bons conseils ont été donnés. En vrac :

  • utiliser les catégories adéquates dans Google Adresses et ne pas créer de catégories superflues ;
  • pousser les internautes à écrire des avis : plus d’avis = plus de visibilité (jetez un oeil du côté des agrégateurs d’avis) ;
  • Google se sert des microdonnées ajoutées sur les pages web pour localiser directement une personne ou une société dans Google Maps ;
  • les recettes classiques fonctionnent toujours pour ranker sur une thématique locale : créer des liens optimisés, avoir un contenu qui reprend l’adresse physique, etc.

Conférences du vendredi 9 mars

Après l’apéro SEO Camp jeudi soir, où j’ai eu l’occasion de discuter avec pas mal de monde, la journée du vendredi commençait par le sujet phare de l’année écoulée : Panda. Les différentes intervenants n’avaient visiblement pas été impactés par la bête, néanmoins ils ont insisté sur un certain nombre de points. Voici ce qui a attiré mon attention :

  • les fiches produits sur un site e-commerce doivent être uniques ;
  • attention à l’UGC (User Generated Content), par exemple les avis d’internautes : ce n’est pas la solution magique pour rendre un contenu plus original car on y trouve souvent des fautes d’orthographe ;
  • depuis Panda, il faut davantage réfléchir à ce qu’il faut/ne faut pas indexer ;
  • pour ne pas avoir trop de liens de publicité sortants, il est possible de cloaker ses liens d’affiliation et d’interdire de crawl les scripts liés.

Tour d’horizon sur le duplicate content

Je n’ai pas pris beaucoup de notes lors de cette conférence. Olivier Andrieu a énuméré les différentes formes de duplicate content et mis en exergue un certain nombre de solutions pour s’en prémunir. De bons rappels même si je n’étais pas tout à fait d’accord avec l’utilisation presque systématique de la balise canonical. Dommage aussi qu’il n’ait pas été davantage question de l’indice de Jaccard ou d’autres algorithmes potentiellement utilisés par les moteurs de recherche pour vérifier l’authenticité d’un contenu.

Outils SEO avancés

Paul Sanches est entré une nouvelle fois en piste pour nous présenter des outils de linkbuilding. Sick Submitter, Oscaar, Easy Comment (un petit add-on que je ne connaissais pas) ont été évoqués, de même que SEO Hackers ou WPGoSocial. Paul a aussi rappelé qu’il pouvait faire appel à de la main d’oeuvre, par exemple pour renvoyer des codes de captcha. Il nous a également présenté quelques astuces très intéressantes pour utiliser Scrapebox de manière intelligente et tout à fait « white ». En voici quelques bribes :

  • utiliser l’outil pour checker les backlinks des concurrents ;
  • trier de manière pertinente pour ne garder par exemple que des pages avec peu de liens sortants ;
  • remplir certains champs en auto avec du contenu spinné puis faire pause avant de publier 😉
  • partitionner ses footprints en utilisant site:fr, site:com, site:es, etc.

Les mystères du Quality Score

Sortons un peu du SEO et parlons adwords avec cette conférence de Jonathan Vidor, qui était captivante.

Quality Score au SEO Campus

Là encore, beaucoup d’infos pertinentes. Une sélection des éléments que j’ai retenus :

  • le CTR est un des facteurs prépondérants dans le calcul du QS (pondération de 70%) ;
  • les autres facteurs sont : historique du compte, pertinence du mots-clé, qualité de la landing, pertinence de l’annonce ;
  • si on a un mauvais QS : le prix du mot-clé augmente, le prix d’enchère pour être en première page augmente ;
  • Google calcule aussi le QS sur le réseau de partenaires : AOL, Free, etc. ;
  • pour optimiser sa pertinence, il faut créer autant de groupe d’annonces que de thématiques et mettre au minimum deux versions d’annonces ;
  • un petit outil sympa : Google Adwords Proposal

Tout change donc rien ne doit changer

Une conférence  là aussi très intéressante et bien détaillée dans laquelle Olivier de Segonzac nous a rappelé les bonnes pratiques SEO à appliquer lors d’une migration. Olivier a volontairement pris en exemple un cas pratique bien complexe avec des changements dans tous les sens : sous-domaines, pré-prod, version test avec seulement 10% du trafic, etc. L’objectif était de montrer que le SEO est amené à intervenir à chaque étape pour minimiser les risques. Voici un condensé de ce qui s’est dit :

  • analyser les pages de destination qui captent le plus de trafic via les résultats naturels, hors homepage (car c’est la page qui bénéficie de la plus grande autorité, elle ne devrait donc pas être impactée) ;
  • dans l’idéal les top pages doivent être redirigées en one to one ;
  • générer une table de correspondance anciennes URLs > nouvelles URLs ;
  • crawler le site existant pour éviter de laisser de côté certaines URLs importantes ;
  • mettre en place un tableau de bord SEO : positions, tracking des erreurs ;
  • ne pas oublier : nouveau sitemap, nouveau fichier robots.txt.

Le SEO à l’heure de la personnalisation des recherches

Je n’ai pas suivi cette conférence en entier, préférant aller faire un petit tour du côté des ateliers cliniques. Apparemment, il y était principalement question de l’utilisation de Google Plus et des microdonnées.

Mises à jours algorithmiques et actions manuelles / Transparence et communication entre Google et les Webmasters

Pour bien terminer ce SEO Campus 2012, deux ingénieurs de la Search Quality Team de Google Dublin étaient présents pour communiquer autour des évolutions du moteur et répondre à nos questions. Ils ont insisté longuement sur le fait que l’objectif ultime de Google était d’améliorer l’expérience utilisateur et que pour cela, 500 mises à jour algorithmiques étaient déployées chaque année sur Google Search. Ils nous ont expliqué qu’il faisaient appel à des évaluateurs en externe pour analyser la qualité des résultats. Chaque amélioration est ainsi testée et le comité de Matt Cutts, Amit Singhal et consor décide en dernier ressort si les modifications doivent être déployées.

Google au SEO Campus 2012

Ils ont également effectué un focus sur la mise à jour Panda d’une part, et sur celle liée à la présentation des pages web d’autre part, en insistant sur le fait que si un site perdait du trafic depuis Google, il pouvait en corrigeant son site et en le rendant plus user friendly, récupérer son trafic à la prochaine itération de la mise jour. En effet, à chaque itération mensuelle d’une mise à jour, les sites sont réévalués, les données sont rafraîchies et l’algorithme réajusté. Enfin, les Googlers ont insisté sur l’impact des signaux sociaux et nous ont conseillé d’éviter les freehost, souvent utilisés par des spammeurs et donc sanctionnés dans leur globalité.

Au final, rien de réellement concret et beaucoup de langue de bois, mais j’ai été interpellé par l’importance qu’accorde Google à la vitesse d’un site, ce point ayant été cité plusieurs fois. A la fin de la conférence, je suis allé m’entretenir avec l’un des Googlers présents, qui m’a apporté quelques éclaircissements, notamment sur le SEO mobile. Je lui ai également parlé de la mise à jour « above the fold », qui sous entend que Google est désormais capable de calculer les modifications de layout qui peuvent éventuellement avoir lieu dans le DOM, afin d’avoir un aperçu de la page comme la voit l’internaute. Comme je m’y attendais je n’ai pas eu de réponse. Si vous avez des infos, des avis, ou des hypothèses à ce sujet, n’hésitez pas à m’en faire part en commentaires 🙂

Bilan

J’ai trouvé ces deux journées SEO très réussies : le contenu était de haute facture et les échanges avec les autres référenceurs très riches. J’ai notamment pu constater que parmi les centaines de personnes présentes, toutes les couleurs de chapeau étaient représentées, du blanc comme neige, au noir comme la poudre. Content d’avoir pu discuter, même furtivement avec Gwaradenn, YohannSEO, Laurent, Loic, 2Grym, Nicemedia_fr, Nicolas, Marc et d’autres que j’oublie. A ceux qui n’étaient pas présents, ne manquez pas le prochain, c’est un classico du référencement !

Vous retrouverez les liens vers les autres compte rendus et slides ici : http://seo-campus.org/retro2012

Partager l'article :

17 commentaires
  • Vraiment intéressant, surtout pour la partie "Crawl de Google, caches, performances et CDN" que j'ai hâte de mettre en application.

  • Merci pour ce résumé très détaillé, certainement un des plus détaillés que j'ai pu lire jusque-là 🙂

  • On s'est effectivement croisé rapidement, entre le vestiaire et le métro.
    On se rattrapera la prochaine fois : SMX, apéro sur Lille, ce ne sont pas les occasions qui manquent. 😉

  • Excellent article ! Hâte de mettre en pratique également, vivement tes préconisations pour les migrations !

  • Le compte rendu le plus détaillé que j'ai pu lire, la conférence juridique était fort instructive également.

  • Eh bien, j'espère que tu as prit 2-3 cafés pendant la rédaction de cet article.

    Bon ba ça nous permet à nous pauvre reclus du monde SEO n'ayant pas pu allez au SEO Campus.

    Très bon résumé bien complet sur les deux journées que j'ai pu suivre en livetweet.

    Bon comme d'hab le hors conf était sans aucun doute la chose la plus intéressante.

  • Compte Rendu bien détaillé avec des infos en plus par rapport aux autres, notamment l'addon esay comment que je ne connaissais pas.
    D'autre part je découvre ce blog, que je trouve très sympa tant sur le plan graphique qu'éditorial 😉

  • Eh bien, après un résumé comme le tien, pas besoin de s'atteler à la tâche ^^, l'essentiel étant livré sur ton blog.
    Content d'avoir fait ta connaissance également, j'ai beaucoup apprécié les échanges lors de ces deux journées, riches en rencontre.
    Au plaisir de se voir l'année prochaine lors du SEO campus 2013.

  • SMX, seocampus… faudrait que l'on aille boire une bière un jour cher voisin…

  • @Gwaradenn : tout à fait !
    @Aurélien : avec plaisir, ce serait sympa d'échanger un peu sur nos métiers 🙂

  • Wow ! Quel résumé, ça fait plaisir à voir tant de plume sur le SEO Campus.

    Je crois que je ne regrette plus de ne pas y être allé cette année. J'aurais pris moins de notes que dans ce résumé 😀

  • C'est cool, en effet, d'avoir pu papoter quelques minutes.
    T'as l'air d'avoir la pêche et tout le reste.
    Je ne promets pas de venir boire une bière dans le nord incessamment sous peu, mais on se verra en terrain neutre parisien à SMX. 😉

  • Super article et très bon résumé du SEO Camp. Merci pour toutes ces informations, c'était sympa de partager les rangs avec toi.

  • Super compte rendu, vraiment sympas pour ceux qui n'ont pas pu s'y rendre !
    je viens de découvrir ce blog en même temps, cela fait un bon coup double 🙂

  • Merci! Ce poste m'a donné une très bonne idée.

  • Merci Antoine pour ce super article. J’aurai bien aimé y être mais j’étais déjà à l’étranger pour un séminaire. Le SEO, c’est vraiment super intéréssant

  • Bonjour à tous,
    Avez-vous la dernière nouvelle du référencement suite au passage du Panda ce mois de mais? je pense vraiment qu’il y a des nouveaux sites d’annuaires ou communiqués de presse qu’on ne doit plus utiliser.
    J’espère que vous êtes tous à la page 🙂


Vous souhaitez réagir ?

En soumettant ce commentaire vous donnez à Silicon Salad le droit de citer vos propos ainsi que votre nom/site. Tous commentaires dégradants ou hors-sujet peuvent-être supprimés par décision de l’auteur. Votre e-mail, ne sert qu’à des fins d’authentification, il ne peut-être ni partagé ni diffusé.
Vous pouvez commenter avec la syntaxe Markdown. En savoir plus

Article précédent
SMX Paris : code remise pour l'édition 2012