Lundi, j’étais au SMX à Paris pour ce qui constitue l’un des events les plus importants dans le domaine du search marketing. L’occasion de découvrir IRL les SEOs les plus influents de ma timeline Twitter, mais également de rencontrer d’autres chargés de référencement en quête de nouveautés et de petites astuces à appliquer au quotidien.

Dans l’ensemble, une journée riche en informations, ou plutôt en « confirmations » avec pourtant une déception, et de taille : l’absence de Rand Fishkin, le cofondateur du très en vu SEOMoz. Apparemment un problème avec la réservation de son billet d’avion…

C’est donc Will Critchlow de l’agence Distilled qui l’a remplacé au pied levé et qui nous a présenté les « ranking factors » SEOMoz de 2011, Rand nous ayant tout de même adressé un petit message vidéo pour s’excuser et nous faire part de sa déception ne pas pouvoir nous rejoindre dans la capitale.

Le discours d’ouverture fut, pour moi, clairement, l’une des parties les plus intéressantes de cette journée, dans le sens où nous avons eu accès à une masse de données concrètes sur les best practices en référencement. Ou du moins, sur ce qui semble être efficace et ce qui l’est moins.

Replaçons d’abord l’étude de SEOMoz dans son contexte et attardons-nous quelque peu sur la méthodologie appliquée. Pour faire court, SEOMoz s’est focalisé sur un corpus de plus de 10 000 mots-clés issus de l’outil Google Adwords, et a, pour chacun de ces keywords, relevé quels étaient les 30 premiers résultats retournés dans les SERPs de Google. Puis, pour chacun de ces sites, plusieurs métriques on page et off page ont été extraites. L’idée étant de mettre en évidence si telle ou telle métrique était corrélée, de manière positive ou négative, avec le ranking dans les moteurs. « Corrélation » et non « cause » : en SEO, on ne peut établir que des constats, la vérité est ailleurs…

En parallèle de cette étude, un sondage auprès de 132 SEOs avait été menée, afin de comparer les opinions des principaux intéressés aux données issues de l’étude.

Keynote de Will Critchlow

Voici ce qu’il faut en retenir :

  • le linking  reste le principal élément de ranking mais sa part est moins importante au regard des ranking factors de 2010
  • les signaux sociaux deviennent prépondérants (on s’en doutait !)
  • les ancres avec des mots-clés qui ne correspondent pas exactement à la requête visée semblent être meilleures : variez-les !!
  • il est important d’acquérir des liens depuis de nombreux domaines différents. Un lien éditorial sur un domaine unique > un lien footer templatisé 🙂
  • selon Will, Google peut utiliser les données liées à l’ancre texte, notamment en comparant les ancres « brand » et les ancres « keywords » : soyez vigilants et variez vos ancres, une fois encore !
  • une proportion de liens en nofollow semble agir positivement sur le ranking
  • les textes courts sur une page sont dévalorisés par rapport aux textes longs (un ordre de grandeur aurait été sympa…)
  • les URLs et title à rallonge sont dévalorisés : attention à la triplette du bourrin !
  • les TLD en .biz, .info et .ca apparaissent comme moins favorables au ranking
  • le .com apparait comme plus efficace qu’un .fr pour un positionnement sur Google France
  • le nombre de « shares » Facebook est un critère en hausse, plus important encore que les RT Twitter

L’élément sur lequel Will a le plus insisté, ce sont les liens émis depuis des ip de classe C. Non, non, rien à voir avec la dernière Merced**, la classe C est en quelque sorte une division du réseau. Chaque classe d’IP peut recevoir un certain nombre d’hôtes, donc grosso modo de sites internet; les adresses IP de classe C sont comprises entre 192.0.0.1 et 223.255.255.254. Voilà pour le (gros) raccourci. Par exemple, avoir un site hébergé sur l’IP 192.95.0.1 et un autre sur l’IP 192.95.0.2 est mauvais pour le SEO car ils ont tous deux la même classe C, c’est à dire les 3 premiers mêmes octets. Dans le cas d’un linking entre les deux sites, Google peut donc y voir un rapprochement suspect destiné à gonfler artificiellement la popularité de l’un et/ou de l’autre.

Il s’agit plus ici d’une confirmation qu’une information en tant que telle, tous les SEOs s’en doutaient, mais cela dissuadera peut-être les propriétaires de serveurs dédiés de lier leurs sites à tout va…

Les techniques de la recherche par mots-clés

Lors de cette session des « fondamentaux », Laurent Bourrelly nous a donné quelques pistes pour bien choisir ses mots-clés. Intervention assez courte et succincte, mais voici ce que j’en ai retenu :

  • commencer par analyser ses propres stats, par exemple avec Google Analytics, de manière à repérer les mots-clés qui amènent des visiteurs qualifiés. C’est sur ces mots-clés que le travail devra se faire de manière prioritaire
  • espionner ces concurrents, car ils font souvent la moitié du boulot pour nous (jeter un oeil du côté des meta keywords et des title notamment)
  • analyser la concurrence et la fréquence de frappe avec les outils Google : Keyword Tool, opérateurs allintitle et allinanchor, etc.
  • trier les mots-clés pour créer des « cocons » sémantiques, ne garder que les plus pertinents
  • réaliser un brainstorming en fin de processus pour vérifier qu’on n’a oublié aucun mot.

Côté outils, il a été question avant tout de SEM Rush et de SeeURank, mais également d’un outil un peu plus cher, Search Metrics, qui permet, selon Laurent, d’avoir un tout en un assez pratique en phase d’audit de mots-clés.
Présentation de Laurent Bourrelly au SMX

Vers la convergence de la recherche mobile, locale et sociale

Pour cette conférence, Marie de l’agence Altiref et David Degrelle de l’agence 1ère Position sont revenus sur des facettes du SEO qui auront un poids de plus en plus important dans les années à venir.

Le SMO

  • Google prend en compte les liens Twitter et FB, plus de prétexte pour les occulter
  • un tweet idéal pour le référencement serait du type Texte – URL – Texte – Hastag

Recherche locale

  • Google valorise de plus en plus les résultats locaux, quitte à masquer les annonces adwords dans la sidebar de droite
  • il y a deux formats de résultats Google Adresses dans les SERPs : compact/étendu

Marie et David nous ont également donné quelques conseils pour une bonne visibilité sur des requêtes géolocalisées

  • avoir l’adresse et le numéro de téléphone sur la page d’accueil
  • créer autant de pages que d’adresses physiques
  • soumettre son site dans les annuaires locaux
  • remplir correctement sa fiche Google Adresses sans suroptimiser le titre
  • susciter un maximum de commentaires sur la fiche, cela peut booster son positionnement assez rapidement
  • inclure la même adresse dans les communiqués de presse et autres contenus destinés à être référencés par Google

Référencement mobile

  • créer un sitemap pour la version mobile
  • autoriser Googlebot-Mobile
  • utiliser la redirection via user-agent pour afficher la version mobile
  • géolocaliser son site sur Maps, application qui est très utilisée par les mobinautes
  • s’inscrire sur les apps dédiées comme Lockly ou Qype pour accroitre sa visibilité globale

Il a également été question du référencement des applis sous Android ou Apple Store, avec des remarques très intéressantes : le nombre de votes, les statistiques d’usage, le nombre d’installation/désinstallation sont des critères à prendre en compte pour être classé dans le top des applications. Le champ « mots-clés » ne doit pas non plus être négligé lorsque l’on soumet une appli.

Les fondamentaux du netlinking

Cette session classée dans les « fondamentaux » était animée par Yann Sauvageon de Synodiance et par Manuel Amorin des parfumeries Marionnaud. De bons rappels ont été effectués lors de cette conférence, notamment sur les sources de backlinks, sur l’anatomie d’un « bon » lien, mais le plus intéressant était d’avoir un zoom sur la stratégie de référencement d’un site comme celui de Marionnaud. Plusieurs enseignements à en retirer:

  • les annuaires sont à utiliser en amorce du linkbuilding
  • les meilleurs liens sont les liens contextualisés, en rapport avec la thématique de votre site
  • pour trouver de bonne sources de backlinks, Google est votre ami…
  • en termes de BLs, Marionnaud c’est un ratio 1/4 home 3/4 pages profondes (quand même !)
  • Marionnaud travaille en collaboration étroite avec les blogueuses
  • Marionnaud utilise beaucoup les plateformes d’articles et la presse web spécialisée pour créer du lien
  • les boutons Twitter, Facebook et +1 deviennent indispensables dans une stratégie orientée SMO

J’ai ensuite assisté à la conférence d’Alexandre Villeneuve sur la e-reputation. Une présentation claire et intéressante sur laquelle néanmoins je ne m’étendrai pas car elle était assez éloignée du SEO. Vous trouverez plus de détails chez Sylvain.

Stratégies de netlinking avancées

Pour terminer, la présentation d’Olivier Tassel et d’Aurélien Bardon sur les stratégies de netlinking avancées était d’une qualité remarquable, et, surtout, sans langue de bois. Les deux experts nous ont d’abord rappelé ce qu’il fallait analyser lors d’un audit netlinking:

  • nombre de backlinks
  • nombre de backlinks en provenance de domaines différents
  • répartition des backlinks
  • ancres des liens
  • poids des liens (mozRank)

Pour cette première étape, deux outils : Open Site Explorer et Majestic SEO.

Puis ils ont fait le point sur l’efficacité des stratégies de linkbuilding classiques:

  • échange de liens : les liens réciproques amènent encore du résultat d’après Aurélien. Les échanges de publication sont de meilleure qualité.
  • pages partenaires : attention à leur donner un nom autre que « partenaires » –> Google is watching you
  • les annuaires : le contenu doit être unique, en volume suffisant (au moins 800 caractères)
  • les CP : ne pas dépasser 3 liens tous les 150 mots
  • commentaires de blogs : à réserver aux billets « remarquables » pour profiter de leur popularité
  • liens profils/bookmarks : plutôt dans une stratégie black hat

Enfin, ils nous ont parlé de leur stratégie avancée de construction de liens, que je définirais comme black hat dans l’esprit mais white hat dans l’application. Concrètement, cela consiste à utiliser des plateformes de création de contenu, de type blogs, à y insérer un contenu propre ou légèrement spinné et à les doper via des liens profil de forum ou des commentaires de blog. Puis de pousser le money site via des liens éditoriaux créés sur ces plateformes de contenu. En somme une stratégie à 3 niveaux, avec l’ensemble des plateformes reliées entre elles.

Quelques conseils néanmoins pour que cette technique soit efficace

  • créer un contenu unique et lisible, propre
  • varier les ancres
  • l’ancre inter plateforme importe peu
  • adopter une croissance exponentielle dans la création des liens

En guise de preuve pour les plus sceptiques, Aurélien et Olivier nous ont montré un graphique d’évolution du positionnement d’un site qui avait bénéficié de cette technique. Incontestable. Par contre, une question reste en suspens : si ce travail d’acquisition s’arrête brutalement une fois les résultats obtenus, quid du positionnement sur le long terme ?

Pour résumer, cette première journée au SMX a permis de dessiner l’horizon du SEO des prochains mois/années : l’omniprésence du social, la montée de la recherche mobile et la nécessité grandissante d’adopter des techniques poussées de netlinking pour rester dans la course…