
2e conf’ Technically Speaking: Advanced Technical SEO Issues
1er intervenant – Maile Ohye de chez Google nous donne une overview de la nouvelle fonctionnalité des robots Google qui sont maintenant capable d’exécuter les javascripts – et croyez-moi ça change beaucoup de choses car il va falloir faire beaucoup plus gaffe à ce qu’on veut planquer ou non dans les Javascripts et notamment les liens – qui était auparavant “nofollow” (ou plutôt non exécuté… enfin officiellement) puisque javascript mais aussi les CSS et les scripts gérant la mise en page.
D’après les techies de chez GG le fait d’exécuter les scripts permet à GG de voir un peu comment est foutu votre site – en lieu et place d’un gros bloc de texte – de voir si l’user expérience est bonne et dans le long terme d’utiliser « peut être » ce paramètre dans l’algorithme. C’est aussi une fonctionnalité qui devrait régler les soucis avec les éléments en Ajax (textes, navigation etc…).
Joke du jour – mince fini les pages sat’ redirigées en javascript !
Maile va aussi nous faire tout un speech sur le passage en HTTPS et sur le fait que d’dorénavant HTTPS est aussi search friendly que le http – et par extrapolation je dirais même que si GG pousse le HTTPS dans le futur il y a des chances que HTTPS soit favorisé par rapport au http.
Tip du jour : Si vous passez en HTTPS – mettez tout en 301, pensez à bloquer la version http (duplicate), pensez à coller toutes les ressources en HTTPS et enfin pensez à passer vos canonical vers le HTTPS.
Eric Wu – Ajax et SEO
La pour le coup on sort un peu de ma zone de confort avec Ajax – perso j’aime pas mais Ajax est un bon moyen de rendre votre site plus rapide – et pour les version mobile, les stats montre que les utilisateurs préfèrent les infinite scroll … Donc Eric nous a présenté tout un tas de tips and advice sur les best practices au niveau Ajax en SEO friendly (infinite scroll, galeries, etc …- et je dois dire que si techniquement j’étais un peu perdu, au niveau UX les exemples montrés déchiraient leurs mamans.
Cliquez la pour la presentation de Eric WU –
Bill Hunt – améliorer le crawl et l’indexation
Back to basics – si votre site n’est pas bien crawle… vous ne serez pas indexé et si vous n’êtes pas indexé vous ne rankerez pas… rien de révolutionnaire mais de bon rappels sur toute les petites erreurs qu’on peut voir dans le crawl et croyez-moi il y en a beaucoup. Enormément de petits Tips à ce niveau – gaffe au Upper/lower case dans vos URLs – soyez sur que toutes vos pages sont en canonical, les sitemaps ne doivent lister que les canonical, faites hyper gaffe au 404 et au soft 404 surtout. Rappelez-vous que les moteurs ne remplissent pas les formulaires donc faites attention avec votre navigation à facette. Conférence très intéressante pour moi puisque je suis en pleins dedans en ce moment sur les sites que je gère… de plus la conférence est très exhaustive tout y est passe ca permet de se faire une bonne petite checklist.
Pour rappel : L’optimisation du crawl et de l’indexation permet d’être sûr que vos pages produits « actives » sont actuellement indexées. Si vous gaspillez les ressources de Google au niveau du crawl, que l’intégralité de votre site n’est pas crawle ou que Google indexe des 404 par exemple – vous perdez du potentiel de trafic longue traine. Plus à un niveau plus globale cela joue sur la qualité générale de votre site et vous risquez de ranker moins sur les requêtes plus génériques.
Continue reading “Retour SMX – Journee 2 suite” »