Comment les mythes SEO peuvent vous coûter cher

Chaque jour, un nouveau mythe d’optimisation des moteurs de recherche est né; malheureusement, un vieux mythe ne meurt pas tous les jours. Le résultat net est une population croissante de mythes. Celles-ci sont presque impossibles à écraser parce que les vendeurs d’huile de serpent continuent de les perpétuer – les ramenant même du bord du gouffre. Vous pouvez parler lors de conférences jusqu’à ce que vous ayez le visage bleu. Vous pouvez développer des listes de contrôle SEO définitives ou même écrire un livre SEO le mieux noté (par exemple, The Art of SEO ). On vous demandera toujours comment écrire de bons mots-clés méta, notre agence web à Caen est là pour vous aider.

Pour ma part, je déteste la désinformation et la désinformation, et l’industrie du référencement, malheureusement, en regorge. Je vais faire ma part pour lutter contre cette menace et répandre la vérité – en exposant certains des mythes les plus insidieux dans cet article même.

Et maintenant, sans plus tarder, la liste.

MYTHES SUR LE CONTENU:

  • Un bon contenu équivaut (c’est-à-dire, conduit automatiquement à) de bons classements. Tout comme les grandes politiques égalent les politiciens qui réussissent, n’est-ce pas?

  • Les balises Meta boosteront votre classement. Réalité: Optimiser vos méta-mots-clés est une perte de temps totale. Ils ont été tellement abusés par les spammeurs que les moteurs n’ont pas mis de stock en eux depuis des années. En fait, Google n’a jamais pris en charge cette balise méta. Aucune des différentes balises méta n’a de poids réel dans l’algorithme de classement.

  • Si vous définissez une méta description, Google l’utilise dans l’extrait de code. Nous avons déjà appris de ma dernière chronique (« Anatomie d’un extrait de code Google ») que ce n’est souvent pas le cas.

  • Ajuster votre méta description est le moyen d’optimiser le potentiel de conversion de l’extrait de code Google. Comme je l’ai décrit dans cet article, le contenu de l’extrait peut être bricolé à partir de données provenant de plusieurs sources. Il existe une valeur de densité de mots clés idéale sur laquelle vous devez optimiser. Trouvez-le en mesurant KD de vos concurrents de haut rang.

  • Placer des liens dans une police de taille minuscule au bas de votre page d’accueil est une tactique efficace pour élever le classement des pages profondes de votre site. Mieux encore, faites les liens de la même couleur que l’arrière-plan de la page (je suis facétieux). Les algorithmes de Google sont évidemment plus sophistiqués que cette sale astuce.

  • Google pénalise le contenu en double. J’ai longtemps déclaré que c’était un filtre, pas une pénalité. Cela peut sembler être une pénalité en raison de la baisse des classements qui en résulte, mais l’intention de Google n’est pas de pénaliser la duplication accidentelle due aux paramètres de suivi, aux identifiants de session et à d’autres pièges de la canonisation.

  • Les balises H1 sont un élément crucial pour le référencement: les recherches de SEOmoz montrent peu de corrélation entre la présence de balises H1 et les classements. Néanmoins, vous devriez écrire de bons titres H1, mais faites-le principalement pour la convivialité et l’accessibilité, pas tant pour le référencement.

  • Le caractère gras des mots dans une liste Google signifie qu’ils ont été pris en compte dans la détermination du classement. Fait: Ce phénomène – connu sous le nom de «KWiC» dans les cercles de recherche d’informations – existe uniquement à des fins d’utilisation.

  • C’est utile si vos mots clés ciblés sont cachés dans des balises de commentaire HTML et des attributs de titre (des balises IMG et A HREF). Depuis quand les balises de commentaire ou les attributs de titre ont-ils un poids?

  • La validation et le nettoyage du HTML augmenteront considérablement la vitesse d’un site ou d’une page. Le plus gros goulot d’étranglement à surmonter dans la vitesse du site n’est pas ce que vous pensez! Si vous voulez être époustouflé, lisez les livres de l’ingénieur en chef de la performance de Google, Steve Souders, High Performance Web Sites (pour des éléments principalement côté serveur comme la mise en cache des proxys inverses et la compression Gzip) et Even Faster Web Sites (pour des éléments principalement côté client comme JavaScript optimisation).

  • Googlebot ne lit pas le CSS. Vous feriez mieux de croire que Google analyse le CSS à la recherche de tactiques de spam telles que les div cachés.

  • Le fait d’avoir des sites spécifiques à un pays crée des problèmes de «contenu en double» dans Google. Google est suffisamment intelligent pour présenter votre site .com.au aux utilisateurs de Google Australie et votre site .co.nz aux utilisateurs de Google Nouvelle-Zélande. Vous n’utilisez pas de ccTLD? Ensuite, définissez le paramètre de cible géographique dans Google Webmaster Tools; c’est pour ça qu’il est là.

  • Il est important pour votre classement que vous mettiez à jour votre page d’accueil fréquemment (par exemple, quotidiennement.) C’est une autre erreur. Beaucoup de pages d’accueil obsolètes se classent très bien, merci beaucoup.

MYTHES SUR L’ARCHITECTURE DU SITE:

  • C’est une bonne pratique d’inclure une balise meta robots spécifiant l’index, suivez. Ceci est totalement inutile. Les moteurs supposent tous qu’ils sont autorisés à indexer et suivre, sauf indication contraire de votre part.

  • Vous pouvez empêcher les moteurs de recherche d’indexer des pages liées à des liens JavaScript. Il existe de nombreux cas documentés de Google suivant des liens basés sur JavaScript. Les ingénieurs de Google ont déclaré qu’ils exploraient de plus en plus les liens JavaScript.

  • Vous devez terminer vos URL en .html. Depuis quand cela fait-il une différence?

  • Les noms de domaine avec trait d’union sont les meilleurs (préférables) pour le référencement. Réalité: trop de tirets font que votre domaine ressemble à du spam pour les moteurs de recherche.

  • Avoir un plan de site XML augmentera votre classement Google. Google utilisera votre fichier de plans de site pour la découverte et potentiellement comme un indice de canonisation si vous avez du contenu en double. Cela ne donnera plus de «jus» à une URL simplement parce que vous l’incluez dans votre sitemaps.xml, même si vous lui attribuez un niveau de priorité élevé.

  • L’utilisation d’un minimum de 40 balises par article de blog permet d’augmenter votre classement dans les moteurs de recherche. Cela venait d’un gourou du marketing autoproclamé et d’un expert en référencement, si vous pouvez le croire.

  • Il n’est pas nécessaire de créer un lien vers toutes vos pages pour que les araignées les voient. Répertoriez simplement toutes les URL dans le plan de site XML. Les pages orphelines se classent rarement pour autre chose que le plus ésotérique des termes de recherche. Si votre page Web n’est pas assez bonne pour que vous souhaitiez y créer un lien, quelle conclusion pensez-vous que les moteurs en viendront à propos de la valeur de cette page à classer?

  • Google n’indexera pas les pages accessibles uniquement par le formulaire de recherche d’un site. C’était le cas auparavant, mais Google a été en mesure de remplir des formulaires et d’analyser les résultats depuis au moins 2008. Notez que cela ne vous donne pas la permission de négliger délibérément l’accessibilité de votre site aux araignées, car vous seriez probablement déçu. Les resultats.

  • Il existe des signaux de classement uniques pour Google Mobile Search, et ils incluent le balisage « XHTML Mobile ». Les résultats de Google Mobile Search reflètent ceux de Google Web Search. Par tous les moyens, créez une version mobile de votre site; mais faites-le pour vos utilisateurs, pas pour le référencement.

  • La directive Disallow dans robots.txt peut obtenir des pages désindexées de Google. Comme je l’ai expliqué dans mon article «Un regard plus approfondi sur Robots.txt», les interdictions peuvent conduire à des listes Google sans extrait et sans titre. Pas un bon look. Pour garder les pages hors de l’index, utilisez la directive robots.txt Noindex ou la balise meta robots noindex – PAS une directive Disallow.

  • Il est considéré comme un «camouflage» – et est donc tabou et risqué – de nettoyer les URL de vos liens de manière sélective et uniquement pour les araignées. Si vos intentions sont honorables, vous n’avez rien à craindre. Tous les principaux moteurs de recherche l’ont dit. Vous aidez les moteurs en supprimant les identifiants de session, les paramètres de suivi et d’autres paramètres superflus des URL de votre site, que ce soit par détection d’agent utilisateur, détection de cookie ou autre.

  • Vous pouvez booster le classement Google de votre page d’accueil pour un terme ciblé en incluant ce terme dans le texte d’ancrage des liens internes. Les tests effectués par SEOmoz ont révélé que le texte d’ancrage de vos liens «Accueil» est largement ignoré. Utilisez le texte d’ancrage «Maison» ou «Immobilier à San Diego» – cela n’a aucune conséquence dans les deux cas.

  • Un plan du site n’est pas fait pour les gens. Un bon plan de site (HTML, pas XML) est conçu autant pour la consommation humaine que pour les araignées. Chaque fois que vous créez des pages / copies / liens uniquement pour un moteur de recherche, en espérant qu’ils ne seront pas vus par les humains, vous demandez des ennuis.

  • La balise canonique est tout aussi efficace que les redirections 301 pour corriger la canonisation. Pas vraiment.

  • Une validation HTML sans faille peut vous aider à améliorer votre classement. Prenez n’importe quel terme de recherche populaire et exécutez une vérification de validation par rapport aux 10 premiers résultats. La plupart d’entre eux échoueront à la validation. Les moteurs de recherche sont beaucoup plus intéressés par la qualité du contenu de la page et sont suffisamment intelligents pour surmonter la plupart des erreurs d’analyse dans les documents HTML.