Le mot de Kat : Les résultats du moteur de recherche Google sont spammés et de mauvaise qualité selon une étude de ... chercheurs allemands. Google répond : On peut rien y faire, c'est la faute au SEO dopé à l'IA qui pourrit notre moteur.
Par Meera Navlakha le 18 janvier 2024 (mis à jour pour intégrer la réponse de Google)
Vous n'êtes pas le seul, la recherche sur Google a vraiment empiré Une nouvelle étude menée par des chercheurs allemands a révélé que la recherche sur Google est infestée de spam SEO. Votre expérience de la recherche sur Google a-t-elle changé pour le pire ? Vous n'êtes peut-être pas le seul.
Cette révélation provient d'une nouvelle étude menée par des chercheurs allemands de l'université de Leipzig, de l'université Bauhaus de Weimar et du Center for Scalable Data Analytics and Artificial Intelligence (Centre pour l'analyse des données évolutives et l'intelligence artificielle). Les chercheurs ont posé la question "Google devient-il pire ?" en examinant 7 392 requêtes d'évaluation de produits sur Google, Bing et DuckDuckGo pendant un an.
Les chercheurs se sont appuyés sur des rapports indiquant qu'"un torrent de contenu de faible qualité, en particulier pour la recherche de produits, continue de noyer tout type d'information utile dans les résultats de recherche". Un nombre important de résultats trouvés en réponse à des requêtes liées à des produits étaient des "spams de référencement de produits".
La recherche a montré que les sites de spam sont très répandus, apparaissant en haut des classements de Google dans ce qui est une "bataille constante" entre les sites et le moteur de recherche. En d'autres termes, écrivent-ils, "les moteurs de recherche semblent perdre le jeu du chat et de la souris qu'est le spam SEO".
"Le référencement est une bataille constante et nous observons des schémas répétés d'entrée et de sortie de spams dans les résultats, alors que les moteurs de recherche et les ingénieurs en référencement ajustent leurs paramètres à tour de rôle", peut-on lire dans le rapport. Bien que Google, Bing et DuckDuckGo éliminent les spams, les chercheurs affirment que cela n'a qu'un "effet positif temporaire".
Un porte-parole de Google a déclaré à Mashable que l'étude "ne reflète pas la qualité et l'utilité globales de la recherche". Il a souligné que l'étude ne portait que sur un ensemble restreint de requêtes, à savoir la recherche de produits.
"Cette étude ne s'intéresse qu'au contenu des critiques de produits et ne reflète pas la qualité et l'utilité globales de la recherche pour les milliards de requêtes que nous recevons chaque jour. Nous avons apporté des améliorations spécifiques pour remédier à ces problèmes, et l'étude elle-même souligne que Google s'est amélioré au cours de l'année écoulée et que ses performances sont supérieures à celles des autres moteurs de recherche. De manière plus générale, de nombreux tiers ont mesuré les résultats des moteurs de recherche pour d'autres types de requêtes et ont constaté que Google était d'une qualité nettement supérieure aux autres", a déclaré le porte-parole.
L'étude en question a montré que les résultats de Google se sont améliorés "dans une certaine mesure" entre le début et la fin de l'expérience des chercheurs. Néanmoins, ils ont constaté "une tendance générale à la baisse de la qualité des textes dans les trois moteurs de recherche". Avec la présence de spam généré par l'IA, la situation ne peut que s'aggraver, prévient l'étude.
"Nous concluons que le spam contradictoire dynamique sous la forme d'un contenu commercial de faible qualité produit en masse mérite plus d'attention", écrivent les chercheurs.
Comme le rapporte 404Media, d'autres chercheurs ont remarqué que Google était inondé de spam. Search Engine Journal, par exemple, a déclaré qu'en décembre 2023, Google a été submergé par une attaque massive de spam qui a duré plusieurs jours.
Google voudrait que le web devienne plus facile à indexer par son moteur de recherche. Pour cela, l'entreprise propose que son protocole d’exclusion des robots devienne un standard officiel du web.
(CCM) — Google vient de demander officiellement la création d'un nouveau standard d'utilisation des fichiers "robots.txt" par les webmasters. Ce protocole normalisé faciliterait la tâche des robots d'indexation – dont son Googlebot maison - lors de leurs visites des pages d'un site Internet.
Les fichiers « robots.txt » sont utilisés par les webmasters pour lister les règles d'indexation des pages de leurs sites par les moteurs de recherche. Ils servent par exemple à interdire l'accès à certains contenus. Les principes du Robots Exclusion Protocol - REP - ont été posés en 1994. Depuis, son fonctionnement a fait ses preuves : il est à la fois souple pour les éditeurs de sites et solide pour des moteurs de recherche sans cesse à l'affût de nouveaux contenus à indexer.
Mais après 25 ans de bons et loyaux services, Google veut mettre de l'ordre dans l'utilisation du REP, que les webmasters ont eu tendance à interpréter dans tous les sens possibles (certains fichiers robots.txt pèsent plusieurs centaines de Mo). Le moteur de recherche veut également mettre à jour les normes pour tenir compte des évolutions récentes du web.
Une demande officielle a donc été transmise à l'IETF - Internet Engineering Task Force - qui gère les protocoles sur Internet. Pour appuyer sa démarche, Google a également annoncé sur son blog (lien en anglais) le passage en open source de son outil de lecture des fichiers robots.txt. Avec son parser, le moteur de recherche a déjà indexé plus de 500 millions de sites au cours des vingt dernières années. Cela représente une expérience incomparable dans la maîtrise des fichiers robots.txt, au point que Google est aujourd'hui capable d'écrire le nouveau standard de l'un des fondements les plus critiques du web.
«Plus de 18 milliards de requêtes ont été faites sur notre moteur de recherche en 2018», souligne le vice-président de Qwant qui reverse à la presse 5% de ses revenus publicitaires.
«Plus de 18 milliards de requêtes ont été faites sur notre moteur de recherche en 2018», souligne le vice-président de Qwant qui reverse à la presse 5% de ses revenus publicitaires. DR
Dernière annonce d’une longue série: le moteur de recherche niçois sort ce matin Qwant Maps et Qwant Masq, deux applis web fidèles à ses valeurs de respect de la vie privée des utilisateurs.
Ces derniers temps, Qwant, le moteur de recherche éthique et niçois, a multiplié les annonces. Après un accord de partenariat avec Microsoft et la décision par le secrétaire d’État à l’Économie numérique de faire de Qwant le navigateur de recherche par défaut de l’Administration, la société fondée en 2013 par Eric Léandri sort ce matin deux applis web: Qwant Maps et Qwant Masq.
Qu’ont-elles de particulier? Déjà, elles sont fidèles aux valeurs de confidentialité et de respect de la vie privée des utilisateurs prônées par celui que se veut le concurrent européen de Google. «Qwant Maps, notre service de cartographie du monde est désormais disponible en version bêta», explique Tristan Nitot, vice-président Advocacy de Qwant.
Comme son nom l’indique, il s’agit d’une cartographie du monde pour rechercher un lieu, une adresse, un point d’intérêt et de donner un itinéraire à pied, à vélo ou en voiture. «D’autres fonctionnalités, comme les transports en commun, seront rajoutées au fil des mois», précise le dirigeant.
Stocker les données sur les appareils
La plus-value par rapport à d’autres services similaires? Premier cocorico, cette appli est faite en France et vise l’Europe «notre cœur de marché, souligne Tristan Nitot. Il n’y a pas de raison que la cartographie européenne soit faite par des Américains.» Pas faux.
«Et surtout, on respecte la vie privée. C’est un service ouvert et transparent pour l’utilisateur qui reste maître de ses informations de navigation.» En clair, cela signifie que Qwant ne connaît pas les utilisateurs et, contrairement à ses concurrents, ne veut surtout pas les connaître. Ce qui n’est pas sans poser un problème en termes de personnalisation du service. Comment fournir un itinéraire si l’utilisateur ne souhaite pas être géolocalisé?
Écueil que la PME qui emploie désormais 160 collaborateurs a contourné en développant Masq, «Une technologie qui stocke les données personnelles (paramètres, préférences, autorisations d’application...) en local, sur le disque dur de l’appareil.»
Plus besoin de cloud, l’utilisateur reprend le contrôle. «Qwant peut utiliser la data mais sans la connaître, résume le dirigeant. Maps est la première application à utiliser Masq. D’autres suivront comme Qwant Pay ou Qwant.com, le moteur de recherche qui mémorisera votre historique localement.»
Faire des émules
Pour plus de transparence, cette techno sera ouverte à des services tiers désireux, eux aussi, de respecter les données personnelles de l’utilisateur.
De ce point de vue là, l’idée a fait son chemin. Des collectivités territoriales comme la Métropole Nice Côte d’Azur, la Région Sud qui recense 125.000 postes informatiques, la Région Bretagne ont adopté le moteur de recherche Qwant. Le privé aussi. A l’instar de la Caisse d’Épargne, de la BNP, de Safran, de Thales ou de la MGEN… ont suivi. L’Administration n’est pas en reste. Le secrétaire d’État à l’Economie au numérique Cédric O a annoncé à Vivatech que le moteur de recherche éthique serait installé par défaut sur quelque quatre millions de postes.
Pour Qwant qui revendique 5% de parts de marché et qui est le 38e site Internet français (la première place est trustée par Google.fr), «C’est de la croissance à moindre coût», s’enthousiasme Tristan Nitot.
Autre bonne nouvelle, le partenariat il y a quelques semaines avec Microsoft aux termes duquel Qwant ferait partie des options préremplies dans les prochaines versions du navigateur Edge livré avec toutes les nouvelles machines Windows. Et le vice-président de se frotter les mains: «Ce sont des centaines de millions de machines dont on parle.»
Enfin, la PME va s’implanter à Cannes pour créer le moteur de recherche consacré à l’art et la culture. «Après Qwant Junior et Qwant Music, Qwant Art sera dédié aux internautes et aux professionnels de la culture.»
Avec cette série d’annonces, Qwant poursuit sa croissance. Certes, il est encore loin de faire de l’ombre à l’ogre Google mais le «petit» moteur de recherche a faim et grignote des parts de marché: «Notre croissance est de plusieurs pour cent par semaine», confirme Tristan Nitot qui vise entre 10 et 20 millions d'euros de chiffre d’affaires en 2018.