Depuis le début des années 2020, l'ergonomie des pages est devenue une préocupation majeures des équipes web, notamment dans sa version sxo, c'est à dire en tenant compte des contraintes pour le référencement dans Google. Le présent article propose des pistes encore sous-exploitées.

Faire des sites accessibles, crawlables et indexables

crawl web

La recommandation de Google "Rendez facilement accessibles des versions imprimables" explique comment obtenir un site accessible et ergonomique. C'est une recommandation pertinente, car effectivement les pages imprimables sont par nature dépouillées de tout le contenu visuel et multimédia. Consulter ces pages peut faciliter l'expérience de navigation d'une personne malvoyante.

Le problème des pages dupliquées

Rendre les versions imprimables visibles aux yeux des moteurs de recherche pose un grand problème, étant données les difficultés que rencontre actuellement Google pour gérer correctement un même contenu accessible deux fois. Ce qui est typiquement le cas lorsqu'on met en ligne une version imprimable de ses pages, en plus des versions normales, le risque d'une pénalisation pour contenu dupliqué est significatif. Une quantité importante de sites se retrouvent essentiellement dans l'index secondaire de Google pour cause de "duplicate content". Il ne s'agit pas seulement de vos pages qui se retrouvent dupliquées sur des sites externes (annuaires à flux RSS, agrégateurs de contenus plus ou moins parasitaires etc), mais également vos propres contenus dupliqués sur vos propres pages.

Suivre les recommandations de Google ?

Google recommande de faire un site "pour les visiteurs", mais c'est alors un handicap pour le réferencement. Pour faire un site réellement tourné vers les visiteurs, donc facilement accessible à tous (y compris les mal-voyants) et doté d'une bonne ergonomie, il faudrait passer outre le caractère limité de Google, qui est actuellement incapable de gérer plusieurs versions identiques de la même page. Une des solutions est d'utiliser les redirections dites "canoniques", sans toutefois que cela soit parfaitement pris en compte par le moteur.

Tant que Google ne sera pas en mesure de traiter correctement les problèmes de contenus dupliqués, les éditeurs de sites que nous sommes n'auront pas l'entière liberté de faire des sites accessibles à tous, faciles à parcourir et indexer pour les moteurs et disposant d'une ergonomie rendant pleinement satisfaisante l'expérience de surf de nos visiteurs. D'ici là, il faut faire un compromis entre un site complètement accessible et ergonomique, et un site bien référencé dans le moteur de recherche.

Parallèlement à leurs activités d'éditeurs, les webmasters sont condamnés à faire du référencement, autrement dit à optimiser leurs sites pour qu'ils soient bien considérés par les moteurs. En clair, il est nécessaire de faire une version basique de nos sites pour les moteurs et une autre version plus intelligente (plus accessible, plus ergonomique) destinée à nos visiteurs. A charge ensuite de cacher cette version intelligente, à travers un robots.txt ou autres méthodes.

Voir également

Ux et SEO : Visibilité ET transformation des visiteurs en clients