Par , le 8 juin 2011

SMX Paris 2011 : compte-rendu – Day 1

SEO | 31

SMX Paris : les salons HocheLundi, j’étais au SMX à Paris pour ce qui constitue l’un des events les plus importants dans le domaine du search marketing. L’occasion de découvrir IRL les SEOs les plus influents de ma timeline Twitter, mais également de rencontrer d’autres chargés de référencement en quête de nouveautés et de petites astuces à appliquer au quotidien.

Dans l’ensemble, une journée riche en informations, ou plutôt en « confirmations » avec pourtant une déception, et de taille : l’absence de Rand Fishkin, le cofondateur du très en vu SEOMoz. Apparemment un problème avec la réservation de son billet d’avion…

C’est donc Will Critchlow de l’agence Distilled qui l’a remplacé au pied levé et qui nous a présenté les « ranking factors » SEOMoz de 2011, Rand nous ayant tout de même adressé un petit message vidéo pour s’excuser et nous faire part de sa déception ne pas pouvoir nous rejoindre dans la capitale.

Le discours d’ouverture fut, pour moi, clairement, l’une des parties les plus intéressantes de cette journée, dans le sens où nous avons eu accès à une masse de données concrètes sur les best practices en référencement. Ou du moins, sur ce qui semble être efficace et ce qui l’est moins.

Replaçons d’abord l’étude de SEOMoz dans son contexte et attardons-nous quelque peu sur la méthodologie appliquée. Pour faire court, SEOMoz s’est focalisé sur un corpus de plus de 10 000 mots-clés issus de l’outil Google Adwords, et a, pour chacun de ces keywords, relevé quels étaient les 30 premiers résultats retournés dans les SERPs de Google. Puis, pour chacun de ces sites, plusieurs métriques on page et off page ont été extraites. L’idée étant de mettre en évidence si telle ou telle métrique était corrélée, de manière positive ou négative, avec le ranking dans les moteurs. « Corrélation » et non « cause » : en SEO, on ne peut établir que des constats, la vérité est ailleurs…

En parallèle de cette étude, un sondage auprès de 132 SEOs avait été menée, afin de comparer les opinions des principaux intéressés aux données issues de l’étude.

Keynote de Will Critchlow

Voici ce qu’il faut en retenir :

  • le linking  reste le principal élément de ranking mais sa part est moins importante au regard des ranking factors de 2010
  • les signaux sociaux deviennent prépondérants (on s’en doutait !)
  • les ancres avec des mots-clés qui ne correspondent pas exactement à la requête visée semblent être meilleures : variez-les !!
  • il est important d’acquérir des liens depuis de nombreux domaines différents. Un lien éditorial sur un domaine unique > un lien footer templatisé 🙂
  • selon Will, Google peut utiliser les données liées à l’ancre texte, notamment en comparant les ancres « brand » et les ancres « keywords » : soyez vigilants et variez vos ancres, une fois encore !
  • une proportion de liens en nofollow semble agir positivement sur le ranking
  • les textes courts sur une page sont dévalorisés par rapport aux textes longs (un ordre de grandeur aurait été sympa…)
  • les URLs et title à rallonge sont dévalorisés : attention à la triplette du bourrin !
  • les TLD en .biz, .info et .ca apparaissent comme moins favorables au ranking
  • le .com apparait comme plus efficace qu’un .fr pour un positionnement sur Google France
  • le nombre de « shares » Facebook est un critère en hausse, plus important encore que les RT Twitter

L’élément sur lequel Will a le plus insisté, ce sont les liens émis depuis des ip de classe C. Non, non, rien à voir avec la dernière Merced**, la classe C est en quelque sorte une division du réseau. Chaque classe d’IP peut recevoir un certain nombre d’hôtes, donc grosso modo de sites internet; les adresses IP de classe C sont comprises entre 192.0.0.1 et 223.255.255.254. Voilà pour le (gros) raccourci. Par exemple, avoir un site hébergé sur l’IP 192.95.0.1 et un autre sur l’IP 192.95.0.2 est mauvais pour le SEO car ils ont tous deux la même classe C, c’est à dire les 3 premiers mêmes octets. Dans le cas d’un linking entre les deux sites, Google peut donc y voir un rapprochement suspect destiné à gonfler artificiellement la popularité de l’un et/ou de l’autre.

Il s’agit plus ici d’une confirmation qu’une information en tant que telle, tous les SEOs s’en doutaient, mais cela dissuadera peut-être les propriétaires de serveurs dédiés de lier leurs sites à tout va…

Les techniques de la recherche par mots-clés

Lors de cette session des « fondamentaux », Laurent Bourrelly nous a donné quelques pistes pour bien choisir ses mots-clés. Intervention assez courte et succincte, mais voici ce que j’en ai retenu :

  • commencer par analyser ses propres stats, par exemple avec Google Analytics, de manière à repérer les mots-clés qui amènent des visiteurs qualifiés. C’est sur ces mots-clés que le travail devra se faire de manière prioritaire
  • espionner ces concurrents, car ils font souvent la moitié du boulot pour nous (jeter un oeil du côté des meta keywords et des title notamment)
  • analyser la concurrence et la fréquence de frappe avec les outils Google : Keyword Tool, opérateurs allintitle et allinanchor, etc.
  • trier les mots-clés pour créer des « cocons » sémantiques, ne garder que les plus pertinents
  • réaliser un brainstorming en fin de processus pour vérifier qu’on n’a oublié aucun mot.

Côté outils, il a été question avant tout de SEM Rush et de SeeURank, mais également d’un outil un peu plus cher, Search Metrics, qui permet, selon Laurent, d’avoir un tout en un assez pratique en phase d’audit de mots-clés.

Présentation de Laurent Bourrelly au SMX

Vers la convergence de la recherche mobile, locale et sociale

Pour cette conférence, Marie de l’agence Altiref et David Degrelle de l’agence 1ère Position sont revenus sur des facettes du SEO qui auront un poids de plus en plus important dans les années à venir.

Le SMO

  • Google prend en compte les liens Twitter et FB, plus de prétexte pour les occulter
  • un tweet idéal pour le référencement serait du type Texte – URL – Texte – Hastag

Recherche locale

  • Google valorise de plus en plus les résultats locaux, quitte à masquer les annonces adwords dans la sidebar de droite
  • il y a deux formats de résultats Google Adresses dans les SERPs : compact/étendu

Marie et David nous ont également donné quelques conseils pour une bonne visibilité sur des requêtes géolocalisées

  • avoir l’adresse et le numéro de téléphone sur la page d’accueil
  • créer autant de pages que d’adresses physiques
  • soumettre son site dans les annuaires locaux
  • remplir correctement sa fiche Google Adresses sans suroptimiser le titre
  • susciter un maximum de commentaires sur la fiche, cela peut booster son positionnement assez rapidement
  • inclure la même adresse dans les communiqués de presse et autres contenus destinés à être référencés par Google

Référencement mobile

  • créer un sitemap pour la version mobile
  • autoriser Googlebot-Mobile
  • utiliser la redirection via user-agent pour afficher la version mobile
  • géolocaliser son site sur Maps, application qui est très utilisée par les mobinautes
  • s’inscrire sur les apps dédiées comme Lockly ou Qype pour accroitre sa visibilité globale

Il a également été question du référencement des applis sous Android ou Apple Store, avec des remarques très intéressantes : le nombre de votes, les statistiques d’usage, le nombre d’installation/désinstallation sont des critères à prendre en compte pour être classé dans le top des applications. Le champ « mots-clés » ne doit pas non plus être négligé lorsque l’on soumet une appli.

Les fondamentaux du netlinking

Cette session classée dans les « fondamentaux » était animée par Yann Sauvageon de Synodiance et par Manuel Amorin des parfumeries Marionnaud. De bons rappels ont été effectués lors de cette conférence, notamment sur les sources de backlinks, sur l’anatomie d’un « bon » lien, mais le plus intéressant était d’avoir un zoom sur la stratégie de référencement d’un site comme celui de Marionnaud. Plusieurs enseignements à en retirer:

  • les annuaires sont à utiliser en amorce du linkbuilding
  • les meilleurs liens sont les liens contextualisés, en rapport avec la thématique de votre site
  • pour trouver de bonne sources de backlinks, Google est votre ami…
  • en termes de BLs, Marionnaud c’est un ratio 1/4 home 3/4 pages profondes (quand même !)
  • Marionnaud travaille en collaboration étroite avec les blogueuses
  • Marionnaud utilise beaucoup les plateformes d’articles et la presse web spécialisée pour créer du lien
  • les boutons Twitter, Facebook et +1 deviennent indispensables dans une stratégie orientée SMO

J’ai ensuite assisté à la conférence d’Alexandre Villeneuve sur la e-reputation. Une présentation claire et intéressante sur laquelle néanmoins je ne m’étendrai pas car elle était assez éloignée du SEO. Vous trouverez plus de détails chez Sylvain.

Stratégies de netlinking avancées

Pour terminer, la présentation d’Olivier Tassel et d’Aurélien Bardon sur les stratégies de netlinking avancées était d’une qualité remarquable, et, surtout, sans langue de bois. Les deux experts nous ont d’abord rappelé ce qu’il fallait analyser lors d’un audit netlinking:

  • nombre de backlinks
  • nombre de backlinks en provenance de domaines différents
  • répartition des backlinks
  • ancres des liens
  • poids des liens (mozRank)

Pour cette première étape, deux outils : Open Site Explorer et Majestic SEO.

Puis ils ont fait le point sur l’efficacité des stratégies de linkbuilding classiques:

  • échange de liens : les liens réciproques amènent encore du résultat d’après Aurélien. Les échanges de publication sont de meilleure qualité.
  • pages partenaires : attention à leur donner un nom autre que « partenaires » –> Google is watching you
  • les annuaires : le contenu doit être unique, en volume suffisant (au moins 800 caractères)
  • les CP : ne pas dépasser 3 liens tous les 150 mots
  • commentaires de blogs : à réserver aux billets « remarquables » pour profiter de leur popularité
  • liens profils/bookmarks : plutôt dans une stratégie black hat

Enfin, ils nous ont parlé de leur stratégie avancée de construction de liens, que je définirais comme black hat dans l’esprit mais white hat dans l’application. Concrètement, cela consiste à utiliser des plateformes de création de contenu, de type blogs, à y insérer un contenu propre ou légèrement spinné et à les doper via des liens profil de forum ou des commentaires de blog. Puis de pousser le money site via des liens éditoriaux créés sur ces plateformes de contenu. En somme une stratégie à 3 niveaux, avec l’ensemble des plateformes reliées entre elles.

Quelques conseils néanmoins pour que cette technique soit efficace

  • créer un contenu unique et lisible, propre
  • varier les ancres
  • l’ancre inter plateforme importe peu
  • adopter une croissance exponentielle dans la création des liens

En guise de preuve pour les plus sceptiques, Aurélien et Olivier nous ont montré un graphique d’évolution du positionnement d’un site qui avait bénéficié de cette technique. Incontestable. Par contre, une question reste en suspens : si ce travail d’acquisition s’arrête brutalement une fois les résultats obtenus, quid du positionnement sur le long terme ?

Pour résumer, cette première journée au SMX a permis de dessiner l’horizon du SEO des prochains mois/années : l’omniprésence du social, la montée de la recherche mobile et la nécessité grandissante d’adopter des techniques poussées de netlinking pour rester dans la course…

Partager l'article :

31 commentaires
  • Merci Antoine ! Un retour très intéressant sur les pratiques du référencement, surtout pour ceux (comme moi) qui n’ont pas eu l’occasion d’assister à cette journée SMX.
    Vivement le prochain article.

  • L’élément sur lequel Will a le plus insisté, ce sont les liens émis depuis des ip de classe C.

    Si je te suis bien : tous les liens réalisés entres les sites hébergés chez un même hébergeur, et donc partageant une même classe d’IP, ne présent aucun intérêt ?

    • @Olivier :

      D’après l’étude SEOMoz, les sites qui disposent de liens d’IP de classe C différente sont corrélés avec un bon ranking.
      Donc, par déduction, oui, les liens depuis des sites partageant la même classe C sont moins favorables au positionnement.
      Ca rejoint la tendance du SEO à avoir un profil de liens « naturels ».

  • Un compte rendu bien exhaustif qui permet de se remettre en tête tout les points d’une bonne stratégie SEO.
    Quand à la méthode Black hat utilisé en White hat pourrait être qualifié de Grey hat 😀
    En tout cas joli boulot de compte rendu!

  • Merci Antoine pour ce récapitulatif du SMX Day 1 !

    Un événement incontournable pour les référenceurs, auquel je n’ai pas eu la chance de participer cette année.

    J’en profite pour féliciter Antoine pour son mémoire de stage SEO Black Hat, particulièrement instructif… !! 😉

    @ bientôt sur de nouveaux articles…

  • Un des meilleurs comptes rendus sur SMX croisés jusque là. Merci!

  • Merci pour ce compte-rendu très détaillé, je le rajoute dans mes favoris de bonnes pratiques SEO ! Concernant le critère sur les classes d’adresses IP, j’en avais déjà entendu parler mais je restais très sceptique quant à sa réalité. Si cette tendance se confirme, il faudra donc penser à regarder l’adresse ip d’un site cible avant de faire un partenariat avec lui.

  • Merci pour la citation 🙂

    Je vois que tu as retenu les points essentiels de notre conf sur le SEO local et mobile ! Je vais faire un post récapitulatif de mes 2 parties bientôt pour y donner pleins de détails que je n’ai pas pu dire à l’oral. A bientôt !

  • N’ayant pas suffisamment d’argent pour payer l’entré, j’avoue qu’un retour de ce type me permet de ne pas tout louper.
    J’avoue que comme olivier, je suis surpris, en gros il faudrait pendant la phase netlinking, vérifier si le site n’est pas hébergé sur le meme prestataire?

    • @Reftuto :
      Certains hébergeurs proposent des classes C différentes.

      Mais il est certain qu’en phase de netlinking, cela devient vite ingérable de checker chaque site. En réalité, c’est un point sur lequel cela vaut le coup de s’attarder lorsqu’on met en place un réseau de lien…
      Il y a certaines techniques pour mener à bien cette opération, tu peux jeter un coup do’eil ici : http://www.seosphere.com/forum/index.php?showtopic=8905

  • Très bon compte rendu sur le SMX il est joliment synthétiser ! bravo à toi Antoine !

  • Salut Antoine,

    J’avoue avoir fait une erreur lors de ma présentation sur les mots clés. Il fallait qu’on se rapproche autour d’une table pour faire un atelier à la place d’une conférence.
    La méthodologie que je présentais voulait simplifier au maximum le processus de recherche des mots clés qui est habituellement chronophage et confus, pour ensuite approfondir lors de la phase des questions/réponses. Le déroulement ne s’est pas opéré comme j’aurais voulu.

    Par contre, étant donné nos relations en commun, il fallait absolument venir te présenter !

    • @Laurent :

      Un atelier aurait en effet peut être été plus approprié, mais pas forcément adapté au format des SMX.
      Oui, je comptais venir discuter avec toi à la pause déjeuner mais il me semble que tu n’étais déjà plus dans le salon…

  • « les CP : ne pas dépasser 3 liens tous les 150 mots »

    Qu’est ce que cela signifie ?

    – 1 lien / 150 mots
    – 3 liens / 150 mots
    – 3 liens maximum dans le CP (en respectant le ratio 1 lien / 150 mots)

    On entend souvent que le ratio « idéal » est d’un lien pour 100 mots…

    • @Florian :

      Oui cette phrase est un peu confuse, c’est 3 liens maxi avec un lien tous les 150 mots. Cela reste bien sûr un ordre d’idée, plus qu’un impératif.

  • Hello Antoine. Je vais tâcher de répondre à la question en suspens :-). A savoir :  » si ce travail d’acquisition s’arrête brutalement une fois les résultats obtenus, quid du positionnement sur le long terme ».

    J’utilise une stratégie encore plus avancée dans le cadre de mes prestations que celle mentionnée dans la conférence car l’objectif était de proposer une stratégie mise en place par tous. Depuis 2 ans que j’utilise ce type de stratégie, je peux affirmer que les positions sont maintenues voir même améliorées sur le long terme. Cela pour une raison simple : l’objectif étant d’alimenter les sites du réseau quotidiennement en lien, ils montent au fur et à mesure en popularité et donc le site objet du netlinking (que tu as appelé « money site ») se voit apporter également de la popularité au quotidien.

    Concernant le qualificatif de black hat ou grey hat pour cette stratégie, je ne suis pas d’accord. A partir du moment ou on respecte un certain nombre de bonnes pratiques (contenu de qualité et unique, nombre de liens par page dans les sites du réseau cohérent, rythme de création des liens progressif…) en quoi elle se distingue d’une stratégie basée sur les communiqués de presse utilisée par la majorité des agences de ref par exemple ?

    • @Olivier :

      Merci pour cet éclaircissement.

      Cette stratégie, je suis d’accord, n’est pas clairement black hat. Il y a néanmoins l’idée de réseau qui est un levier très utilisé par les BH. C’est pour cette raison que je l’ai qualifiée ainsi.
      Mais comme tu le dis, tant que le contenu est propre et non spinné dans tous les sens, et que les liens sont construits de manière intelligente, sans automatisation trop lourde, cela peut tout à fait être rangé du côté white hat.
      Je pense comme tu le dis que les agences de réf utilisent plus ou la même stratégie avec la combinaison digg like / CP.

  • […] SMX Paris : résumé Day 1 par Antoine de Silicon Salad. […]

  • Je pense comme tu le dis que les agences de réf utilisent plus ou la même stratégie avec la combinaison digg like / CP.

    J’utilise cette méthode (digg / cp / money site) depuis plusieurs années (notamment sur Web Me I’m Famous) et je suis convaincu par la puissance délivrée. Une technique à utiliser « sans modération » (ou presque!). 😉

  • Très bon compte rendu merci – Je vois que toutes les personnes que je côtoie ont été à la hauteur de leur réputation… arf … j’ai encore manqué quelque chose

  • Félicitation et merci pour la qualité de ce résumé. Pendant que certains ne débattent que du prix d’entrée ( + l’hébergement + le train , on en finit pas.. ) Vous nous apportez un compte rendu clair informatif qui fait saliver les plus éloignés, les plus absents.
    Nous avons (Nous Canadiens) bien peu d’évènement SEO et notre communauté est plus dispersée (pour info le seul cet année = http://www.w3qc.org/blogue/conference-seo-camp-montreal ,4 intervenants 100 participants) . Votre post va être très apprécié ici.

  • Merci pour ce compte rendu très complet! Et meme si lors de ce smx paris 2011, il y avait beaucopup de confirmations, un rappel des fondamentaux ne fait jamais de mal.
    En revanche, dans les critères de ranking, je n’ai pas vu si ils ont parlé des signaux émanant du comportement utilisateur (taux de rebond, taux de clics, temps passé sur la page). C’est un critère très important qui sera surement au même niveau que le linking interne ou externe.
    Ca implique l’importance de l’ergonomie web en SEO.

    • @sergeesteves :
      Dans l’étude SEOMoz, le comportement utilisateur, avec toutes les métriques que cela implique, a été rapidement abordé en tant que l’un des critères qui aura le plus de poids dans les années à venir selon les SEOs interrogés.
      Mais d’après les ranking factors de 2011, ce composant ne représente que 6% (Page Level Traffic/Query Data)

  • […] SMX Paris : résumé Jour 1 (Antoine) […]

  • Très bon résumé, merci.
    Je rejoins les remarques d’Olivier 😉

  • Effectivement j’ai vu ca sur leur graphe, http://www.seomoz.org/article/search-ranking-factors

    Sachant que ces pourcentages sont faits en fonction d’un panel de 132 experts SEO et partant du principe que c’est un critère encore pas assez connu, je pense que ce pourcentage est sous évalué par rapport à la réalité de l’algo Google.

    Le poids SEO n’est pas évident à évaluer comme d’autres critères de ranking mais je le vois régulièrement sur les sites sur lesquels je travaille où des pages comme les paginations pour prendre un exemple, qui sont bien linkés et recoivent beaucoup de jus sur le site, mais qui faute d’être suffisamment utilisés par les visiteurs, sont mal crawlés et au final peu ou pas visible.

    A l’inverse, des pages qui sont très utilisées comme des pages de moteur de recherche interne mais qui ne sont pas linkées, sont tout de même crawlées et au final positionnées.

    Merci la toolbar!!

  • @Antoine : c’est vrai que j’étais à SMX « par épisode » car mes séjours parisiens sont toujours chargés en rdv et autres tâches business.

  • […] Référencement : un compte-rendu complet du SMX Paris tenu début juin par Antoine […]

  • Salut comme convenu l’URL vers le soft (demande à paul via Twitter). Regarde l’adresse dans l’URL

  • […] à Paris du SMX aura lieu cette année les 7 et 8 juin. Pour avoir eu la chance d’y assister l’année dernière, je ne peux que vivement vous recommander ces deux journées de conférénce sur le […]

  • Merci pour ce compte-rendu de grande qualité.. gros niveau, j’apprends plein de choses ! Même si il a plus d’un an, il est particulièrement détaillé.

    Je voudrais juste revenir sur un point que je ne comprends pas très bien. Je me posais en fait la même question qu’Antoine, à propos de la stratégie développée par Olivier Tassel : Et si le travail s’arrête brutalement ?
    J’avoue ne pas bien saisir la réponse d’O. Tassel : « l’objectif étant d’alimenter les sites du réseau quotidiennement en lien, ils montent au fur et à mesure en popularité et donc le site objet du netlinking (que tu as appelé « money site ») se voit apporter également de la popularité au quotidien. »
    Dans ce cas, on ne peut pas dire que le travail se soit vraiment arrêté ?


Vous souhaitez réagir ?

En soumettant ce commentaire vous donnez à Silicon Salad le droit de citer vos propos ainsi que votre nom/site. Tous commentaires dégradants ou hors-sujet peuvent-être supprimés par décision de l’auteur. Votre e-mail, ne sert qu’à des fins d’authentification, il ne peut-être ni partagé ni diffusé.
Vous pouvez commenter avec la syntaxe Markdown. En savoir plus

Article précédent
Nouveaux bureaux