Comprendre les mises à jour & pénalités de l'algorithme de Google Le fonctionnement de Google a beaucoup évolué depuis les 10 dernières années. Il est intéressant de s'intéresser de plus près aux bases de son fonctionnement afin de comprendre ce qu'est réellement une pénalité. Google bot, index & algorithme Lors du crawl d’un site internet, le Google bot lit les différents éléments de la page (code html, texte…). Il suit également les différents liens (internes et externes) représentant des sortes de « route ». Les pénalités Les pénalités manuelles Une pénalité manuelle est une action menée par un employé de l’équipe anti-spam de Google sur un site web précis. Les pénalités algorithmiques Une pénalité algorithmique ne peut survenir qu’après le déploiement d’un filtre. Penguin Il s’agit du filtre le plus sévère. La bonne nouvelle : on ne peut pas être touché par une pénalité Penguin en dehors de ces mises à jour. Panda Le filtre Panda est déployé automatiquement tous les mois et pas seulement lors de ses mises à jour.
Mesurer le ROI des réseaux sociaux avec Google Analytics : Tracker l'usage social de chaque page avec Google Analytics - Web & Tech L'outil d'analyse gratuit de Google permet désormais de fournir des indicateurs clés sur les sources de trafic et le comportement des internautes sur son/ses site(s) Web. La dernière mouture de l'outil a notamment bien amorcé le virage "social" et prend désormais en compte de nombreux réseaux sociaux, qui pèsent de manière croissante sur la vie d'un site web (son trafic, sa monétisation, et son référencement naturel). Avantage du code de suivi asynchrone Google Analytics propose aujourd'hui à la fois d'étudier "l'usage social" de chaque page de son site, mais aussi de décortiquer assez précisément les origines du trafic issu des divers réseaux sociaux. Comme souvent avec cet outil, il faut ajouter quelques lignes de code sur son site pour tracker les informations voulues. Tracker les usages "sociaux" du site Par exemple, Google indique ce moyen de mettre un bouton Twitter : Google Analytics permet d'étudier l'usage précis que font les internautes de ces boutons. Exemples de bonnes pratiques
Et si Google pénalisait les sites mobiles trop lents ? Fin février 2015, une étiquette rouge "slow" est apparue dans les résultats de Google sur les sites jugés "lents". Décryptage. Google réalise régulièrement des tests dans son moteur de recherche. Fin février 2015, une étiquette rouge « slow » est apparue sur les sites jugés « lents » pour prévenir les mobinautes avant qu’ils ne s’engagent à télécharger les pages. Alors que le Centre for Retail Research Nottingham (CRR) annonce que l’année 2015 sera l’année du M-commerce dans sa dernière étude pour Retailmenot1, avec, pour l’Europe, un bon de 93% des achats en ligne réalisés depuis un smartphone, l’annonce de Google pourrait jeter un pavé dans la marre et pousser les e-commerçants à vérifier la vitesse d’affichage de leurs pages. Que la performance web devienne une priorité des e-commerçants n’est pas une mauvaise chose, surtout lorsqu’on étudie le comportement des internautes face à la lenteur d’un site. La vitesse est est également importante pour la confiance inspirée à l’internaute.
J-5. Google bientôt "mobile-friendly" : faut-il foncer vers le Responsive ? Un design Responsive a des avantages, mais ce n'est pas la panacée. 5 jours avant la mise à jour de Google, voici 2 erreurs souvent vues lors des migrations vers le responsive. J-5. Ce 21 avril, les résultats que va remonter Google sur les mobiles vont privilégier les pages optimisées pour ces terminaux, c'est-à-dire celles qui bénéficient du label "site mobile" (aussi appelé "mobile-friendly"). Alors que cette mise à jour se rapproche, le Responsive Web Design peut apparaître comme la solution idéale. Erreur 1 : croire que le Responsive Web Design est la meilleure solution pour tous les sites "Le Responsive Design, ce n'est pas la solution à tout", prévient d'emblée Aymeric Bouillat. Quant aux sites d'envergure modeste, notamment ceux propulsés grâce à WordPress, ils peuvent avoir une belle carte à jouer en optant pour le Responsive. Erreur 2 : Croire que parce que c'est responsive, c'est beaucoup plus simple L'idéal est sans doute de penser un site Responsive 'Mobile-First'
Les bonnes pratiques de désindexation de contenus Dans le cadre d'une approche globale SEO, l'indexation des URLs est un KPI stratégique. Un éditeur de site aura pour objectif d'indexer un maximum de contenus dans les moteurs de recherche. Pourquoi parler de désindexation ? Pour orienter les visiteurs vers des pages qui représentent un réel intérêt et surtout prioriser une indexation "utile" des contenus que l'on souhaite mettre en avant. La question de la désindexation d'URLs peut se poser dans différents cas de figure : refonte web, contenus obsolètes, pages non stratégiques,...autant de situations qui vont nécessiter, selon le volume de données à traiter, la mise en œuvre de directives associées à la désindexation. Les bienfaits de la désindexation de contenus il m'est déjà arrivé de constater sur un site à fort volume de contenus qu'un nombre important d'URLs obsolètes ou non stratégiques apparaissaient dans les pages de résultats des moteurs de recherche. Identifier les contenus à désindexer Exemples de questions clés à se poser :
Pages 404 : et si elles n’étaient pas si inutiles que ça ? Ne vous est-il jamais arrivé de pester devant une erreur 404. Rares sont les sites qui en sont exempts. Avez-vous déjà mesuré l’impact de ces pages sur votre trafic ? Pour ne pas que ce trafic parte à la poubelle, voici quelques pistes. Si vous avez un restaurant ou un magasin et que vous partez sans arrêt à la pêche sans prévenir, les clients potentiels qui se sont déplacés chez vous et qui se cassent le nez ne reviendront jamais. Tout le monde sait cela. Sur le web c’est pareil, pour les internautes et pour les moteurs, qui ont tous horreur de perdre du temps. Sauf si vous faites le nécessaire pour que votre page 404 soit un moyen de récupérer et de réorienter le trafic et de capter l’attention de vos visiteurs. Page 404 : état des lieux et bonnes pratiques Les bonnes pratiques en termes d’ergonomie et de navigation sur un site web impliquent que l’on travaille cette page comme n’importe quelle autre. - Les pages non-personnalisées - Les pages personnalisées à minima Cela peut passer par :
Quelles évolutions pour le SEO en 2015 ? Voici quelques prédictions relatives aux évolutions des usages, des moteurs de recherche et donc du SEO en 2015... Non le SEO n'est pas mort ! Au pays de Google, on prononce souvent l’expression : « hindsight is 20-20 », voulant dire qu’il est facile de « prévoir » le passé. Pour 2014, nous savons tous que dans la ménagerie de Google, il y a eu toujours plus de pingouins, de pandas, voire même des pigeons (et oui) ou des colibris… N’importe quel spécialiste du SEO pourrait nous dire que 2014 était l’année où Google a commencé à regarder ou à crawler les pages comme un internaute, ne tenant compte que de ce qui est directement visible dans la page sans cliquer. L’année du mobile D’abord, sachez que 2015 sera l’année du mobile - tout comme l’ont été 2012, 2013, 2014… La nouvelle mise à jour de Google, Pigeon – déjà en place sur les marchés anglophones et qui ne tardera pas à arriver en France – est très portée sur la géolocalisation. Le contenu est roi On a trouvé la boîte noire
SEO : vers un Big Bang du Web Mobile ? Google l'a annoncé : A partir du 21 avril, il utilisera le critère "mobile-friendliness" comme signal de positionnement. Ce changement touchera toute requête mobile dans le monde. Quelques conseils pour se préparer. Depuis quelque temps déjà, la fameuse notion de mobilité est devenue un véritable cheval de bataille pour Google. Dès juin 2013, Google constatait déjà que les utilisateurs de smartphones représentaient un segment important et prometteur. L’histoire s’est poursuivie en 2014, où Google a commencé à tester un affichage spécifique servant à indiquer si un site était « mobile-friendly », ou pas. En même temps, le moteur de recherche nous propose un certain nombre d’outils pour que nos sites s’affichent bien sur mobile et surtout, qu’ils se positionnent bien dans ses résultats. Si vous découvrez l’information aujourd’hui, vous avez un peu moins d’un mois pour vous préparer à ce que certains appellent déjà « Mobilegeddon ». 1) Faites vérifier votre site !
SEO & start-ups : 4 erreurs qui vous empêchent de tirer du trafic des moteurs de recherche Le SEO est souvent une partie délaissée de plein gré ou par manque de temps par les start-up qui préfèrent se tourner vers des leviers d’acquisition plus facilement contrôlables, comme le référencement payant, ou sur l’amélioration de leur produit. lire les recommandations de Google Les résultats naturels représentent plus de 80% des clics des internautes et le taux de clic moyen d’une page dans le top 5 est de 22.9% (contre 7% de clic moyen sur une annonce adwords). Le trafic potentiel que peut tirer un site internet du SEO est donc énorme, à condition de ne pas commettre l’une des erreurs suivantes. 1. L’utilisation de paramètres d’URL pour gérer les différentes langues de votre site Si vous souhaitez traduire le contenu de votre site ou de votre blog, ne choisissez pas les paramètres d’URL pour gérer l’affichage des différentes langues de votre site. Par exemple, la structure est préférable à Pourquoi ? 2. Pourquoi ? 3. Pourquoi ? 4.
"Techniques de référencement web" : les bonnes feuilles : "Techniques de référencement web" : les bonnes feuilles sur l'Ajax et le JavaScript L'extrait qui suit est issu de l'ouvrage d'Alexandra Martin et de Mathieu Chartier, "Techniques de référencement web : Audit et suivi SEO" qui vient de paraître chez Eyrolles. Il s'agit plus précisément d'un passage du chapitre "Facteurs Bloquants et pénalités Google" concernant l'Ajax et le JavaScript non optimisés. Plus d'informations sur l'ouvrage et ses auteurs sur la dernière page "En savoir plus" de ce dossier. Des codes en JavaScript peu ou mal optimisés peuvent causer des problèmes de lecture pour les robots des moteurs de recherche. Le langage Ajax étant fondé sur JavaScript et XML, il subit les mêmes conséquences et posent aussi ses propres problèmes en matière de compréhension par les crawlers. En réalité, deux principaux soucis se posent lorsque nous utilisons JavaScript ou Ajax : des liens sont incompris voire illisibles pour les robots et ne peuvent donc pas être suivis ; Ajax donne du fil à retordre
C'est quoi le Black Hat en Référencement (SEO) ? Il existe de nombreuses techniques en référencement (seo), plus ou moins propres pour être pertinent aux yeux de Google. Et comme être placé dans les 1ers liens de Google peut considérablement augmenter vos ventes (36% des internautes cliquent sur le 1er lien, source jdnet), certaines pratiques « douteuses » (dites « black hat ») se sont développées. En référencement, les 2 choses les plus importantes sont le contenu et les liens. Google Panda: est ce que le contenu du site est de qualité? Google veut rester pertinent et proposer l’information de meilleure qualité en haut de page. Pour arriver à cette situation, Google à mis en place un algorithme (aka Google Panda) qui valide que vos contenus sont « uniques » et « pertinents » pour l’utilisateur. 2 exemples: Duplicate Content Une technique simple avant Panda était de copier des contenus externes et de les publier sur son site. Content Spinning Google Pingouin: est ce que les techniques de référencement respectent les règles de google?