Recherche
  Home Actualités Petites annonces Offres d’emploi Appels d’offres Publireportages C'est vous qui le dites Medias & tendances Immobilier Recherche Contact



Infos congo - Actualités Congo - Premier-BET - 08 aout 2024
mediacongo
Retour

Sur le net

Panique chez Google : une fuite révèle les pratiques SEO du groupe

2024-06-01
01.06.2024
2024-06-01
Ajouter aux favoris
http://www.mediacongo.net/dpics/filesmanager/actualite/2024_actu/05-mai/27-31/panique_chez_google_une_fuite_revele_les_pratiques_seo_du_groupe.jpg -

Pour éviter une « pollution » de ses résultats de recherche, Google a toujours tenu à ce que son algorithme reste secret. Malheureusement, une partie de son fonctionnement vient apparemment de fuiter.

Pour faire en sorte d’arriver en haut des résultats de recherche de Google, les sites web ont recours à une série de pratiques connues sous le nom de SEO. Mais s’il y a bien sûr une part d’évidence (par exemple, l’usage de mots-clés spécifiques), une partie de la stratégie « Search Engine Optimisation » tient du tâtonnement dans le noir, voire de la superstition. Et il y a une bonne raison à cela.

En effet, pour éviter que les pratiques du SEO ne polluent complètement les résultats de recherche avec des sites de mauvaise qualité et des pages web non pertinentes, la firme de Mountain View a toujours tenu à garder secrète la « recette » de son algorithme de recherche. Qui plus est, celui-ci est également mis à jour régulièrement avec de nouveaux critères pour s’adapter aux évolutions de notre société (comme depuis la déferlante de l’IA générative et de ChatGPT, par exemple).

Mais tout ce beau travail d’offuscation vient peut-être (en partie) de tomber à l’eau. En effet, une fuite révèle des informations jusqu’alors secrètes. Des documents auraient ainsi été partagés avec un certain Rand Fishkin, spécialiste du SEO, par une source anonyme qui voulait exposer les « mensonges » de Google sur le fonctionnement de l’algorithme, comme rapporté par le média anglophone The Verge.

Il faut toutefois relativiser, puisque l’algorithme en question se baserait sur pas moins de 14000 critères (voire encore davantage), et que la fuite ne révélerait qu’une fraction de ceux-ci. Elle ne révélerait également pas vraiment le fonctionnement de l’algorithme, c’est-à-dire le dosage réalisé à partir de ces critères. Et enfin, le tout serait écrit dans un langage assez technique et plutôt hermétique pour le commun des mortels. Voilà qui devrait un tantinet réduire le danger de voir nos résultats de recherche se remplir de spams en tous genres.

Globalement, voici comment se résume le plus gros des découvertes de Rand Fishkin, dans la mesure où elles sont véritables (nous allons traiter ces informations comme telles) :

NavBoost

Tout d’abord, la fuite révèle l’existence d’un système dénommé NavBoost, dont on connaissait déjà l’existence depuis 2023 (mais sans beaucoup de précisions jusqu’alors). Celui-ci, qui se base entre autres sur les données de Google Chrome (et semble même peut-être avoir à l’origine motivé Google dans sa création d’un navigateur), se penche non seulement sur l’activité avant, mais aussi après le clic sur le lien du moteur de recherche.

Pour faire simple, en plus de s’intéresser aux recherches à proprement parler, NavBoost va se baser sur la distinction entre « clics longs » et « clics courts », ce qui désigne en réalité le temps passé par un utilisateur sur une page après avoir cliqué sur un lien. Autrement dit, un peu à la manière de l’algorithme de YouTube, la « rétention » est ici un aspect clé de l’algorithme de Google.

Mais en plus de cela, NavBoost surveille également les activités de l’utilisateur après avoir cliqué sur le lien. S’il fait une autre recherche subséquente, cela suppose qu’il lui manquait une information, et l’algorithme de Google va en tenir compte pour faire remonter cet élément qui manquait à ses précédentes propositions.

Il y a donc bien une certaine logique dans l’assemblage parfois un peu hétéroclite de mots clés que proposent parfois les logiciels de SEO, mais encore faut-il, pour le concepteur du site web, retenir le lecteur avec un contenu de qualité.

Il semblerait aussi que NavBoost va pénaliser certaines fonctions perçues comme des « signaux de spam ». C’est par exemple le cas des noms de domaines, qui seront pénalisés s’ils s’affichent un peu trop comme une simple série de mots clés façon SEO.

Une chose qui est un peu moins bien définie dans l’algorithme de Google, c’est une distinction dans la fiabilité des clics. Pour faire simple, chaque clic ne se vaut pas (c’est un peu logique) : si des clics semblent par exemple être le fait d’une armée de bots, ils auront moins de valeur aux yeux de NavBoost que s’ils n’en sont point. Google lui-même s’était d’ailleurs exprimé à ce sujet, en parlant de « clics incorrects ».

La nature d’un clic est toutefois surtout jugée grâce aux appareils utilisant Chrome. Donc un utilisateur n’utilisant qu’Edge n’aurait que peu d’influence sur le SEO général (voire pourrait être considéré comme un « clic incorrect », même s’il ne faut pas trop spéculer là-dessus).

Navboost essaie aussi de déterminer l’intention de l’utilisateur en effectuant une recherche et tient compte de la localisation de ceux-ci alors qu’ils effectuent un clic (quelque chose d’assez logique, et qui explique pourquoi vous n’aurez pas droit aux mêmes résultats de recherche en fonction des pays). Les pages locales seront souvent préférées aux pages globales (sauf exception comme Wikipédia, etc.). Vous aurez donc du mal de trouver Geeko sur l’internet français…

Navboost utilise ensuite les données de clics pour ranger les sites en trois niveaux de fiabilités : s’il est de qualité faible (soit une absence totale de clic, ou presque), il sera pour ainsi dire absent du moteur de recherche, mais si sa qualité est forte (ses clics sont jugés « corrects » et nombreux), il aura de forte chance d’être repris vers le haut des résultats.

La page d’accueil au centre de tout

Même si les résultats renvoient par ailleurs vers des pages spécifiques d’un site, tout se joue en réalité en bonne partie au niveau de la page d’accueil de celui-ci. Ainsi, le « ranking » de celle-ci aura une incidence sur l’intégralité des pages du site. C’est donc la plus importante des pages du site (mais ça, on s’en doutait déjà).

Liens et mises en page

Certaines découvertes corroborent ce que l’on savait déjà sur le fonctionnement du SEO. Même si les liens ne sont ainsi pas la seule métrique qui entre en compte, et ont peut-être même une moindre importance qu’on aurait pu le penser auparavant, ils restent tout de même au cœur du fonctionnement de l’algorithme.

On savait aussi déjà que la police d’écriture avait son importance. Et il y a une raison pour laquelle on évitait par exemple de mettre des liens dans le chapô (le résumé en introduction d’un article). Il y a bien quelque chose de vrai à cela, puisque la taille de la police, surtout celle des liens, semble avoir son impact sur le SEO.

Inutile de dire que les spams dans les liens sont bien entendu un gros élément de dégradation. Mais il est bon aussi de rappeler que, puisque Google a aussi accès aux données de Chrome, les liens ne suffisent pas, encore faut-il que les gens cliquent sur lesdits liens…

Déterminer la « qualité »

Pour bien faire, Google dispose également d’un système nommé EWOK qui, quant à lui, sert à déterminer la qualité d’un lien.

Par exemple, on sait désormais que Google est capable de différencier les auteurs des contenus écrits, ainsi que la qualité de ceux-ci. Aussi, sur un nom de domaine utilisant plusieurs auteurs, l’un d’entre eux ne peut pas simplement se reposer sur la qualité de rédaction des autres. Une baisse de la « qualité » et de la notoriété de l’un d’entre eux peut avoir des conséquences néfastes sur le SEO du site dans son ensemble.

Google tiendrait aussi compte, en plus des auteurs, de l’autorité des domaines (quelque chose que la firme de Mountain View avait toujours nié, même s’ils avaient reconnu utiliser « quelque chose de similaire »). Il est assez difficile de définir cette métrique, mais de manière générale, on peut la comprendre assez instinctivement comme la « notoriété » d’un domaine. On comprendra par exemple que Wikipédia, Facebook ou Reddit disposeront d’une plus grande « autorité de domaine » qu’un site créé par une seule personne totalement anonyme.

L’âge d’un site serait aussi concerné.

La méthode de calcul utilisée par Google sur ce point est toutefois inconnue.

Les sujets sensibles

En cas de sujets particulièrement délicats, l’algorithme de Google peut devenir beaucoup plus « picky ». C’est assez logique, car ici, les résultats peuvent cette fois-ci faire des dégâts. Par exemple, pour une recherche d’hôtels, il est assez logique de penser que Google évite de renvoyer les voyageurs potentiels vers des arnaques. Pour cela, et même si ce n’est bien évidemment pas parfait, Google procède par un système de « listes blanches » pour les sites de voyages, ainsi que pour les sujets sensibles liés à l’actualité.

Alors ça ne veut pas nécessairement dire que les sites qui ne figurent pas sur une liste seront nécessairement invisibles. Ils pourront simplement être rétrogradés. Et on ne sait pas vraiment quels sont les critères utilisés pour définir ces listes blanches (sauf peut-être pour les infos officielles où il est assez clair que Google va simplement limiter sa liste aux infos provenant des autorités locales).

Cela est aussi à mettre en lien avec la dégradation des contenus perçus comme « YMYL » (Your Money Your Life), à savoir des contenus qui mettraient en danger l’utilisateur, financièrement où physiquement.


Geeko / MCP , via mediacongo.net
C’est vous qui le dites : 1 commentaire
2564 suivent la conversation

Faites connaissance avec votre « Code MediaCongo »

Le code à 7 caractères (précédé de « @ ») à côté du Nom est le Code MediaCongo de l’utilisateur. Par exemple « Jeanne243 @AB25CDF ». Ce code est unique à chaque utilisateur. Il permet de différencier les utilisateurs.

Poster un commentaire, réagir ?

Les commentaires et réactions sont postés librement, tout en respectant les conditions d’utilisation de la plateforme mediacongo.net. Vous pouvez cliquer sur 2 émojis au maximum.

Merci et excellente expérience sur mediacongo.net, première plateforme congolaise

MediaCongo – Support Utilisateurs


Shadow @FVE82ST   Message  - Publié le 01.06.2024 à 15:28
La même chose, Google a fait à Terra Vision qui est devenu Google Earth. IL vole Les algorithms puis Les modifient

Réagir

14
Répondre
@
Insérez un émoji
right
Article suivant Intelligence artificielle : une grosse nouveauté va bientôt débarquer sur WhatsApp
left
Article précédent Rançongiciels : opération internationale contre des logiciels malveillants

Les plus commentés

Politique Disparition de Papy Tamba : le FCC dénonce la volonté manifeste du régime en place de réduire ses membres en silence

30.08.2024, 16 commentaires

Politique Appel à la cohésion nationale : le trio Kapita-Lisanga-Della pose une condition à Martin Fayulu

28.08.2024, 15 commentaires

Provinces Déploiement des soldats Kényans en RDC : la société civile du Nord-Kivu s'oppose et condamne le silence coupable du Gouvernement congolais

30.08.2024, 9 commentaires

Société « 9 camions pleins de militaires Rwandais arrivent à Kibumba au Nord-Kivu » (Société civile)

28.08.2024, 8 commentaires

Ont commenté cet article



Ils nous font confiance

Infos congo - Actualités Congo - confiance