L’avenir du web dévoilé par le scandale des classements de recherche AI Overviews

lavenir du web devoile par le scandale des classem 1 0 8607
Table des matières

Ce week-end, les annonces de Google sur ses résumés générés par IA lors de sa conférence de développeurs ont fait des titres internationaux, mais pas pour les raisons espérées par l’entreprise.

Des hallucinations aux recommandations dangereuses

Sur les réseaux sociaux comme Threads, Bluesky et X, les utilisateurs ont rapidement découvert que les résumés générés par l’IA de Google contenaient des erreurs flagrantes, voire dangereuses. Un des exemples les plus célèbres est le résultat suggérant de mettre de la colle non toxique sur votre pizza. Mais les recommandations de l’IA ne se sont pas arrêtées là : elle a également suggéré de mettre de l’essence dans vos spaghettis. En ce qui concerne l’histoire américaine, l’IA de Google a affirmé que seulement 17 présidents américains étaient blancs et qu’un président était musulman.

L’absurdité à son paroxysme

Les résumés générés par l’IA ont même recommandé de manger une à trois pierres par jour, une idée provenant d’un article satirique du site The Onion. Le fait que de nombreuses captures d’écran virales de ces résumés soient fausses semblait presque secondaire. Quand Google recommande de manger des pierres, toute capture d’écran partagée sur les réseaux sociaux semble suffisamment plausible. C’est tout le problème.

La superficialité de la nouvelle approche de Google

Même si ces incidents ont pu sembler drôles sur le moment, ils ont révélé la superficialité de la nouvelle approche de Google en matière de recherche. Sans base de connaissances propre, le grand modèle de langage de Google se contente de résumer et de régurgiter ce qu’il trouve sur le web selon des critères inconnus. Rusty Foster de « Today in Tabs » décrit cette pratique comme du plagiat automatisé.

Google blâme les utilisateurs

Google a attribué ces erreurs à ses utilisateurs. Certains de ces requêtes étaient effectivement peu courantes. Par exemple, « Puis-je utiliser de l’essence pour faire des spaghettis » n’a probablement pas été testée lors des exercices internes. Le but de déployer progressivement des changements majeurs dans la recherche est d’identifier où se trouvent les problèmes.

Cependant, de nombreuses requêtes étaient assez courantes. Demander la race ou la religion des présidents américains, ou comment faire coller du fromage sur une pizza, sont des utilisations typiques de Google que la version précédente du moteur de recherche, non dégradée par l’IA, gérait parfaitement. Google aurait pu choisir de déployer les résumés de l’IA dans quelques catégories spécifiques, mais a préféré un déploiement plus large.

Améliorations à venir ?

Il est probable que la qualité des résultats de l’IA de Google s’améliore avec le temps. C’est une question existentielle pour l’entreprise, et si elle ne parvient pas à faire fonctionner la recherche par IA, quelqu’un d’autre le fera. Google pourrait probablement avancer en retirant The Onion de ses sources d’actualités.

Un historique embarrassant

Ce n’est pas la première fois que Google rencontre des difficultés avec ses produits d’IA. Lorsque Bard, le prédécesseur du chatbot Gemini de Google, a été lancé en février 2023, une démonstration indiquait incorrectement que le télescope spatial James Webb avait pris les premières images d’une planète en dehors de notre système solaire, ce qui était faux. En février de cette année, le chatbot Gemini de Google a refusé de créer des images de personnes blanches dans de nombreux cas, ce qui a donné lieu à des images de nazis et de Pères fondateurs américains racialement diversifiés. Après un tollé, notamment dans les cercles conservateurs, Google a retiré la génération d’images du bot.

Une détérioration progressive

Ces erreurs sont embarrassantes, mais il semble encore pire de dire aux gens de manger des pierres ou de faire des spaghettis avec de l’essence. En ce sens, l’histoire la plus importante concernant les lancements d’IA de Google est qu’ils se détériorent avec le temps. Lorsque le Wall Street Journal a testé les grands chatbots sur une grande variété de critères, il a classé Google troisième, après Perplexity et ChatGPT d’OpenAI. (Les modèles Claude d’Anthropic et Copilot de Microsoft se sont classés respectivement quatrième et cinquième.)

Un avenir incertain pour le web

Il reste beaucoup à découvrir sur le fonctionnement des grands modèles de langage et sur la manière dont les actions de Google changeront l’avenir d’Internet. Un web qui a prospéré grâce à son ouverture et à sa décentralisation commence maintenant à se flétrir. Mardi, les experts en optimisation de moteurs de recherche se sont précipités pour lire des milliers de pages de documentation concernant l’algorithme de moteur de recherche de l’entreprise, qui semblent avoir été publiées accidentellement en ligne.

Une domination inquiétante

Google garde jalousement des informations sur le classement de la recherche pour des raisons d’intégrité (pour éviter que des acteurs malveillants ne manipulent les résultats) et pour des raisons concurrentielles (pour maintenir son avantage sur ses rivaux). Les experts SEO qui ont eu un aperçu précoce des documents les qualifient de mine d’or. Bien que personne n’ait encore pleinement digéré le contenu de la fuite, et que Google n’ait pas commenté l’authenticité des documents, une conclusion frappante a été mise en avant par Rand Fishkin, qui a publié le premier rapport sur les fuites : les classements de recherche organiques de Google favorisent désormais les grandes marques dominantes au détriment des petits sites et entreprises indépendants.

Le déclin du web ouvert

Les résumés générés par l’IA sont conçus pour fonctionner de la même manière : identifier les éditeurs crédibles restants sur le web, puis compresser leur production collective pour la servir à l’endroit où les résultats de recherche apparaissaient autrefois. La tendance s’éloigne d’un web ouvert où tout le monde peut rivaliser, vers un monde avec un nombre plus réduit de grands gagnants. Pour le moment, cela profite aux grands éditeurs. À terme, cependant, cela pourrait ne profiter qu’à un seul éditeur : Google lui-même.

Le même récit

Ainsi, l’histoire du fiasco des résumés générés par l’IA et celle des fuites de classement de recherche sont les mêmes. Chacune montre Google avançant maladroitement vers la place qu’elle occupe depuis des années. Et pour l’instant, on ne sait pas encore ce que quiconque peut y faire.

Une conclusion nécessaire

En somme, les résumés générés par l’IA de Google ont mis en lumière des lacunes importantes et des risques pour les utilisateurs. Alors que l’entreprise s’efforce de corriger ses erreurs, il est crucial pour les internautes de rester vigilants et critiques face aux résultats de recherche qu’ils reçoivent. L’avenir du web est en jeu, et nous devons tous œuvrer pour préserver un Internet ouvert et fiable.