Leia nosso artigo sobre

class="img-responsive

.

Le SEO technique ne se limit pas à corriger ses 404 et peut relever des problèmes majeurs sur un site web. Voici 5 pontos importantes em uma auditoria.

1 - Google voit-il bien la page web complète ?

Depuis bien 10 ans, les sites web sont très dépendants du JavaScript pour la génération de leurs pages. O Google está em capacidade de criar uma página com todos os seus recursos, mais uma página é legal, a de chances de ser criada em direito. Ao contrário, o risco é que ele passe à página se a página for de conteúdo, de privilégios essenciais.

L'outil d'Inspection de l'URL de la Search Console permet de vérifier comment Google a vu la page : le code HTML généré est-il bien le même que ce qu'on a dans notre navigateur, les ressources utiles (CSS et JS essentiels) sont-elles bien chargées ?

L'outil d'inspection de l'URL propose en réalité deux fonctions :

  • Índice Google: montre la page telle que Google l'a indexée.

  • Test en direct: montre comment Google voit la page dans des conditions idéales, en chargeant le maximum de ressources.

Atenção donc à étudier vos pages à travers la version adaptée à votre analyse.

class="img-responsive

2 - Google ne voit-il que les pages utiles du site ?

Em um mau hábito de considerar uma URL no HTTP 200 é uma boa escolha, e uma URL no HTTP 404 é um bom exemplo. Comme souvent en SEO, il n'y a pas de réponse binaire, et une prise de recul est nécessaire.

Prenons l'exemple d'un site e-commerce : il se compose principalement de pages de listings (catégories) et de fiches produit.

Uma listagem de páginas (Catégories, Sous-catégories) é suscetível de proposer des options d'UX à l'internaute comme des filtres (couleur) et des tris (prix).

Ces options génèrent souvent des URLs avec paramètres quasiment infinies du fait des combinaisons d'options (ce qui donnerait exemple.com/chemises?couleur=Bleu&taille=XS). Le risque est de laisser accessible à Google un nombre incontrôlé de pages inutiles au SEO, car faibles (trop de filtres donc peu de produits) ou dupliquées (produits identiques ordonnées différemment).

Surveillez donc dans la Search Console le nombre de pages "Valides" (vertes). Mais mieux, si vos sitemaps sont proprement configurés pour ne contenir que les pages utiles et connues de votre site, vous pourrez distinguer :

  • Envoyée et indexée - les pages du sitemap

  • Indexée, mais non envoyée via un sitemap - les pages hors sitemap et indexées

Le danger est donc dans cette seconde catégorie, malgré sa couleur verte rassurante.

class="img-responsive

D'un autre côté, un produit a un cycle de vie qui implique sa disparition du site à terme. Sa page sera naturellement passée en HTTP 404, qui s'ajoutera aux autres produits disparus récemment - donc au rapport de Couverture de la Search Console sur les URLs Exclues - Introuvable (404). Au même titre que les feuilles mortes qui s'accumulent au pied d'un arbre en automne, c'est un comportement normal pour un site. Et d'une manière générale, quel est le risque pour votre site que Google voie des URLs en 404 ? Aucun.

3 - Google considère-t-il bien le site comme compatível com celular ?

A fixação do Google em SEO sobre o assunto do celular a respeito do seu índice de mobilidade: a qualidade de um site em SEO é avaliada pela sua versão móvel. A garantia do notamment é a garantia de diferenças de conteúdo e de liens entre a versão desktop e a versão mobile.

On rencontre parfois un problème plus raro mais plus critique : Google peut considérer qu'un site n'est pas mobile. La plupart des sites sont en Responsive Web Design (RWD) rendant un même site compatible en desktop et en mobile. C'est justement cette technologie qui peut être un piège : elle est gérée par des fichiers de ressources du site (principalement le CSS) qui peuvent être bloqués à Google involontairement.

Em parfois retrouve dans le robots.txt (fichier indiquant à Google ce qu'il peut voir ou non sur un site) des consignes bloquant les ressources nécessaires au Responsive Design, souvent dû à un legacy d'ancien CMS (ou de robots.txt gérant plusieurs répertoires sous des différents CMS). O Google não pode gerar as páginas do site com as características de estilo incompreensível e não compatível com o site. Heureusement, constater ce problème est simpleissime (la Search Console remonte l'erreur, on peut tester une page via le Test d'optimisation mobile) et sa résolution en général relativement rapide.

4 - Voyez-vous bien le même site que Google avec votre navigateur et vos outils ?

Une página web est générée par un servur web. Celui-ci respondeu a um pedido de um URL que contém as informações do requerente, notamment : l'User-Agent pour identifier le type de demandeur (outil, navigateur, robot d'exploration) et l'adresse IP. O servidor envia uma resposta HTTP, acompanhado de uma página web. Uma resposta HTTP200 é compatível com a demanda da página, uma resposta HTTP404 ou HTTP500 não é passada.

En bref, certains sites répondront différemment selon qui fait la demande. Ce qui pose deux problèmes majeurs :

  • Google et vos outils ne voient pas la même page. Les outils d'analyse comme les crawlers (OnCrawl, Screaming Frog) ou les solutions SEO (SEMrush, ahrefs) peuvent être volontairement bloqués par le serveur du site. Soit par leur User-Agent, soit par leur adressesses IP lorsqu'ils simulent Googlebot. Les outils n'auront pas toujours la même réponse à une URL demandée selon leur configuration.

class="img-responsive
  • Google ne voit pas la page comme vous la voyez dans votre navigateur. Um site é um exemplo de comportamento para o Google e para o internauta. A partir do risco de que este seja considerado como uma prática de uso pelo Google (que exige um site identificador para o Google e para o internauta), a análise de desempenho SEO do site será mais eficaz.

Um exemplo importante é o status em linha de páginas que são redirecionadas para o internauta: uma página exemple.com pode existir para o Google, mas ser redirecionada para exemple.com/fr_FR/ para o internauta, devido ao idioma do navegador e do site cookies (que não é o caso do robô de exploração do Google).

5 - Les données structurées sont-elles une menace pour le site ?

Dans la même logique que les extensions d'annonces en SEA, les résultats naturels bénéficient d'ajouts visuels variés. Os dados estruturados são os mais identificadores mais recentes de uma página ou de formatos definidos. O final é uma conferência de última hora sobre esses conteúdos por parte dos autores de pesquisa, em troca de informações gerais sobre como os extras são enriquecidos nos resultados de pesquisa. O exemplo é a estrutura de dados familiares a um produto: sobre a identificação do filho indicado, seu prêmio, sua disponibilidade e sua nota moyenne, e o conteúdo desses documentos para esta página nos resultados de pesquisa.

Malgré la grande précision de la documentation des données structurées (par Schema.org et Google) et les outils de test de leur implémentation, les erreurs restent courantes, même parmi les CMS les plus avancés du marché.

Dans le meilleur des cas, une malvaise implémentation les rendent partiellement inopérantes - l'élément en cause ne génèrera pas d'extraits enrichis sans bloquer les autres (un prix bien balisé ne sera pas bloqué par une note moyenne déficiente).

Mais grave, une implémentation valide à première vue peut nuire au site. Certos CMS do mercado se montrent très généreux dans leur balisage : des pages produit où sont balisés le produit principal mais également les produits associés (en cross-sell). O produto principal é identificado pelo reste da página (título, H1) mais os prix são múltiplos. Google doit choisir un prix à afficher pour cette page dans les résultats de recherche, et a peu de chances de retenir le bon. Em caso de retrocesso de donc com as páginas produzidas no SERP com os prix incorrects : inférieurs ou supérieurs, déceptifs pour l'internaute.

Le cas le plus sérieux et malheureusement pas si rara concerne les pénalités manuelles de Google. Uma implementação considerada abusiva em relação às práticas autorizadas pelo Google quanto aos dados estruturados amènera à um retrait complete des extraits enrichis pour le site, jusqu'à résolution du problème et demande de reconsidération de l'action manuelle (ensuite validée par une personne physique). Os casos em que houverem dois meses para serem reconsiderados, dependendo das quantidades que os sites concernem, são mantidos no SERP em relação aos concorrentes (visto único, sem impacto sobre as posições).

class="img-responsive

Leia nosso artigo sobre

class="img-responsive

.