Les intelligences artificielles génératives, comme SearchGPT, Perplexity ou les AI Overviews de Google, se nourrissent des contenus produits par les sites web pour proposer des réponses aux utilisateurs. Mais en captant l’attention des utilisateurs sans les rediriger vers les sites web, elles privent ces derniers du trafic sur lequel repose leur viabilité économique. Les IA risquent ainsi de détruire les sources dont elles dépendent. C’est le paradoxe de la dépendance dévorante des IA.
Cet article explore différentes facettes de cette contradiction :
- la dépendance des IA aux contenus humains,
- leur impact sur le rôle des sites web,
- les problèmes qu’elle soulève pour la qualité de l’information,
- et les solutions possibles pour sortir ce qui semble être une impasse.
Le paradoxe de la dépendance dévorante des IA génératives. Un nom bien bullshit, pas vrai ? Je suis bien d’accord. Mais il permet d’engager une réflexion intéressante sur l’ensemble de l’écosystème.
Sommaire
Le paradoxe de la dépendance dévorante des IA
Les intelligences artificielles génératives créent une dynamique paradoxale : celle de l’épuisement des contenus de qualité face à la surabondance d’information générée par les IA.
Mécanique
- Les IA dépendent des sites web pour alimenter leurs modèles et produire des réponses aux requêtes des utilisateurs.
- Mais en remplaçant les sites dans leur rôle informationnel, elles réduisent leur trafic.
- Or, le modèle économique d’un site web repose sur son trafic (publicité, abonnements ou autres revenus comme la vente de services).
- Ainsi en réduisant leur visibilité, les IA réduisent la viabilité économique des sites web, et donc leur capacité à produire de nouveaux contenus sur lesquels appuyer leurs réponses.
Cercle vicieux
Voilà, nous avons décrit dans les grandes lignes le cercle vicieux que je souhaite pointer avec ce paradoxe : si les IA affaiblissent progressivement les sites web en détournant leur trafic, comment pourront-elles assurer à long terme leur accès à des contenus actualisés et diversifiés, nécessaires à leur propre fonctionnement ?
Tant que les IA continueront de se développer grâce à toujours plus de données, il faudra trouver des solutions à ce paradoxe.
La triple dépendance des IA
Entrons les détails. Ce paradoxe de la dépendance dévorante repose sur trois dynamiques :
- la dépendance aux contenus humains,
- l’impact de la captation de trafic sur les sites web,
- la dégénérescence des modèles IA.
La dépendance aux contenus produits par les humains sur des sites web
Les IA génératives sont impressionnantes. Mais elles ne créent rien ex nihilo. Leur savoir provient – en grande partie – des milliards de sites web alimentés par des humains. Ces contenus sont indispensables pour que les IA fournissent des réponses de qualité aux utilisateurs.
Par ailleurs, les IA ne peuvent pas se contenter de données statiques ou historiques. Pour rester pertinentes, elles ont besoin de contenus récents, en lien avec l’actualité et les tendances. Les IA dépendent donc d’un flux constant de nouveaux contenus. Elles ne sont viables que grâce à l’effort continu des humains pour alimenter le web avec des informations variées et à jour.
Mais les IA pourraient-elles produire ces contenus ?
Dégénérescence des IA entraînées sur des IA
Eh bien non. Les IA ne peuvent pas produire de contenus destinés à alimenter d’autres IA. Une étude récente a mis en évidence un phénomène de dégénérescence des modèles lorsqu’ils sont entraînés sur des données générées par d’autres IA.
En effet, à chaque itération, les réponses deviennent de moins en moins précises et pertinentes, un peu comme une photocopie de photocopie qui perd en netteté à chaque reproduction.
Ainsi, les IA ont une dépendance structurelle aux contenus produits par des humains. Les sites web jouent donc un rôle fondamental dans ce système : ils fournissent des informations actualisées, diversifiées et créatives, que les IA ne peuvent générer par elles-mêmes.
C’est aussi pour cela que je me méfie de la production de contenu automatisée. Si votre stratégie SEO vise un positionnement dans les IA, n’oubliez pas d’utiliser votre petite cervelle pour rédiger. En tout cas, ne confiez pas l’entièreté de la rédaction à une IA comme Claude ou ChatGPT sans effectuer un gros travail post-génération. On peut en effet imaginer que les IA vont privilégier des contenus humains, qui leur permettent de fournir des réponses plus pertinentes que celles basées sur des contenus IA, pour alimenter leurs modèles.
Les IA ont donc besoin de contenus humains produits sur des sites web.
La captation du trafic des sites web
Mais le cœur du paradoxe réside dans l’impact direct des IA sur les modèles économiques des sites web.
En intégrant des réponses complètes directement dans leurs interfaces, les IA s’inscrivent dans une logique « zéro clic« : les utilisateurs obtiennent les informations recherchées sans jamais visiter les sites d’origine.
Or, comme expliqué plus haut, la viabilité économique d’un site repose en grande partie sur son trafic. Que ce soit via la publicité, les abonnements payants ou la monétisation indirecte. Sans visites, un site web perd sa source de revenus.
Un blog qui propose des recettes de cuisine, un site de niche qui partage des tutoriels ou un média spécialisé en analyse économique — tous ces acteurs sont dépendants de leur visibilité pour continuer à produire du contenu.
Et nous voilà en plein dans le paradoxe de la dépendance dévorante des IA génératives.
Ce sont ces trois dynamiques — la dépendance aux contenus humains, la dégénérescence des modèles et la captation du trafic — qui créent un cercle vicieux. Les IA, en privant les sites web de leurs ressources, compromettent leur propre avenir.
Comment préserver l’équilibre de l’écosystème numérique ?
Une menace pour l’écosystème numérique
Ce paradoxe est à l’image d’un prédateur qui dévore toutes les ressources de son environnement naturel, si bien qu’il met en péril l’équilibre de l’ensemble, y compris sa propre survie.
L’image biologique du prédateur qui détruit ses ressources
Quand le prédateur devient trop efficace et chasse ses proies jusqu’à leur extinction, il condamne également sa propre existence. Mais un tel déséquilibre peut aussi rompre la chaîne alimentaire et entraîner l’effondrement de tout l’écosystème.
Si les IA affaiblissent à outrance les sites web et les médias journalistiques, elles risquent de provoquer un appauvrissement global de l’information disponible en ligne. En effet, le contenu devient moins varié, moins riche, et les IA elles-mêmes en pâtissent. Tout écosystème — qu’il soit naturel ou numérique — repose sur un équilibre fragile entre les acteurs qui le composent.
Sélection naturelle numérique, concentration et biais
Les IA ne se contentent pas de menacer les sites web, elles redéfinissent aussi leur rôle en fonction de leurs propres besoins. Dans ce contexte, les sites web ne sont plus les destinations finales des utilisateurs, mais deviennent des référentiels, des bases de données qui nourrissent les IA. (J’en parlais un peu dans mon précédent articles sur la pertinence des noms de domaine à l’ère de l’IA générative).
Les chiffres montrent une transformation radicale dans la manière dont les IA sélectionnent leurs sources. En effet, selon Sistrix, les AI Overviews de Google utilisent environ 275 000 domaines comme sources pour générer leurs réponses, contre plus de 18 millions dans les pages de résultats traditionnels.
Cette concentration pose deux problèmes majeurs :
- Un appauvrissement de la diversité des contenus : Les petits sites spécialisés, indépendants ou de niche, vont avoir encore plus de difficultés à rivaliser avec les grandes plateformes, qui disposent de ressources conséquentes pour adapter leurs contenus aux exigences des algorithmes d’IA. Pourtant, ce sont souvent ces acteurs plus modestes qui apportent des perspectives nouvelles, des idées originales ou des informations plus spécialisées.
- L’accentuation des biais : En limitant leurs sources à un nombre restreint de sites, les IA risquent de refléter des visions homogénéisées. Si les réponses générées proviennent toujours des mêmes plateformes, celles-ci finissent par façonner la manière dont les utilisateurs perçoivent les sujets. Cette uniformité des réponses nuit à la pluralité des points de vue et réduire la richesse du débat public.
Dans ce processus de sélection, seuls les sites capables de répondre aux exigences des IA survivront.
Des sites web repensés pour répondre aux besoins des IA
Pour survivre et rester pertinents, les sites web pourraient être contraints de se remodeler pour répondre aux exigences des IA génératives.
Par exemple :
- Produire des contenus hyper-structurés et optimisés pour les formats d’extraction des IA. On peut ici spéculer sur les effets d’une standardisation adaptée aux algorithmes d’IA sur la créativité et la diversité des contenus.
- Miser sur la crédibilité et l’autorité car les IA privilégieront des sources perçues comme fiables et bien établies, ce qui pourrait exclure les nouveaux entrants ou les acteurs de niche.
- Renforcer la fraîcheur et publier des contenus récents et régulièrement mis à jour pour maximiser leurs chances d’être sélectionnés comme sources.
Cette adaptation risque de creuser encore davantage les inégalités entre les grands sites disposant de ressources importantes et les petites structures qui peinent à suivre ce rythme.
Les conséquences de cette évolution ne sont donc pas seulement techniques ou économiques. Elles sont aussi éthiques. On se se dirige sans doute encore plus vers un web dominé par quelques grandes plateformes.
Peut-on laisser un petit nombre de sites façonner à eux seuls les réponses aux questions des utilisateurs ? Plus largement, que deviendra l’écosystème numérique si sa richesse continue d’être sacrifiée au profit de l’efficacité algorithmique ?
Comment sortir du paradoxe
Pour rompre ce cercle vicieux, un équilibre durable doit être trouvé. Voici deux pistes.
Une économie circulaire des contenus
Les IA génératives pourraient s’inscrire dans un modèle d’économie circulaire des contenus, où une partie des bénéfices qu’elles génèrent seraient redistribués aux sites web qui les alimentent.
Perplexity envisage justement un système de partage de ses revenus publicitaires. Dans ce modèle, les sites dont les contenus sont utilisés pour générer des réponses recevraient une rémunération. Ce nouveau modèle économique pourrait inciter les éditeurs de sites à poursuivre la les efforts de production de contenu.
D’autres pistes pourraient inclure :
- Des licences d’utilisation des contenus : Les IA génératives pourraient rémunérer les sites sous forme de licences pour accéder à leurs données. Cela garantirait un flux de revenus stable pour les créateurs de contenu, notamment pour les média. C’est d’ailleurs un gros cheval de bataille pour plusieurs d’entre eux qui estiment s’être fait fait piller par les IA génératives. Perplexity a d’ailleurs déjà signé des accords avec certains grands médias dans ce sens-là.
- Un fonds de soutien aux producteurs de contenus : Les grandes plateformes exploitant des IA (Google, OpenAI, etc.) pourraient créer des programmes de financement dédiés aux sites web, notamment aux acteurs indépendants ou de niche. Ce soutien permettrait de maintenir la diversité des sources dans un écosystème dominé par une poignée de géants.
Ces solutions économiques permettraient d’éviter l’effondrement de l’écosystème numérique de l’information. Est-ce qu’elles seraient pour autant équitables ? Cela reste à voir.
Réinvention du rôle des sites web
Mais le vrai combat est sans doute ailleurs. Pour survivre dans un environnement où les IA captent une grande partie de l’attention des utilisateurs, les sites web doivent eux-mêmes repenser leur rôle. Et ne pas laisser les IA le faire à leur place.
Plutôt que de rester de simples pourvoyeurs d’informations, les sites web doivent se concentrer sur la création d’expériences.
Quelques axes :
- proposer des expériences immersives,
- développer des outils personnalisés,
- renforcer l’aspect communautaires,
- développer l’image de marque,
- miser sur des formats exclusifs…
Je dirais qu’il ne faut plus penser audience, mais communauté. Chercher le trafic direct et en provenance de push.
Course à l’équilibre : s’adapter pour survivre.
J’espère que cette réflexion sur le paradoxe de la dépendance dévorante des IA vous a plu. Tout n’est pas à prendre au pied de la lettre. Il ne s’agit ici que de réflexions et de questions dans un environnement en pleine ébullition. Une chose est sûre, les sites web devront s’adapter pour rester pertinents.
Deux problèmes à retenir :
- Les IA génératives menacent l’avenir de millions de sites web dont le modèle économique repose sur le trafic. .
- En imposant de nouvelles règles aux sites web pour répondre à leurs besoins, les IA pourraient favoriser une standardisation des contenus et une concentration des sources.
Il faudra trouver un équilibre entre les besoins des IA et ceux des sites web car c’est tout l’écosystème de l’information qui est en jeu, des médias institutionnels aux simples blogueurs. Cela passera sans doute par des modèles économiques de partage des revenus. Une réflexion éthique sur les choix d’inclusion ou d’exclusion des sources par les IA devra être menée.
L’objectif n’est pas seulement de maintenir les sites web en vie, mais de garantir une cohabitation équilibrée et bénéfique pour tous les acteurs, avec en bout de chaîne, l’utilisateur qui doit obtenir une information de qualité.