Bannière de l'article sur la collaboration entre l'IA et Wikipédia.

Les entreprises d'IA et Wikipédia peuvent-elles collaborer ? La démocratisation comme terrain d'entente [18 Nov 2025]


Auteur : MikeTurkey, en conversation avec ChatGPT
Date : 18 novembre 2025

Introduction

En novembre 2025, la Fondation Wikimedia a publié une déclaration protestant contre l'utilisation non autorisée des données par les entreprises d'IA. Selon les rapports du journal Asahi Shimbun, l'accès à Wikipédia par les entreprises d'IA a augmenté de manière spectaculaire, accroissant la charge des serveurs, tandis que le nombre de lecteurs humains a diminué de 8 % par rapport à l'année précédente. Cette baisse du nombre de lecteurs pourrait également entraîner une diminution des dons, menaçant les fondements opérationnels de Wikipédia.
Personnellement, j'utilise Wikipédia et l'IA au quotidien. Les deux sont indispensables en tant qu'infrastructure de connaissances moderne. C'est précisément pour cette raison que je veux éviter une situation où ils s'affrontent et souffrent tous les deux.
Cet article explore les voies de collaboration entre Wikipédia et les entreprises d'IA.

En réalité des alliés ? Trouver un terrain d'entente


À première vue, Wikipédia et les entreprises d'IA semblent avoir des intérêts contradictoires.
Cependant, en y regardant de plus près, ils partagent des points communs importants.

Contraintes financières

Comme on le sait, la Fondation Wikimedia est une organisation à but non lucratif souffrant d'un manque de financement chronique. Par conséquent, la Fondation Wikimedia cherche à obtenir une utilisation payante des ensembles de données, mais compte tenu de la réalité des entreprises d'IA, cette solution est probablement difficile à réaliser. Les entreprises d'IA, dont Anthropic et OpenAI, nécessitent déjà d'énormes quantités de financement face à des coûts de calcul massifs, des dépenses de recherche et développement, et une pression concurrentielle intense.
De nombreuses entreprises ne peuvent pas se permettre de payer des frais de licence de données supplémentaires.

Cependant, si nous laissons ce problème non résolu, nous serons confrontés à une situation où « la mauvaise monnaie chasse la bonne ». Si des sources d'information de haute qualité comme Wikipédia se détériorent, les entreprises d'IA perdront les données de qualité nécessaires à l'entraînement, dégradant finalement la qualité des résultats de l'IA.
C'est la classique « tragédie des biens communs ».
Tout le monde utilise la ressource partagée pour son propre bénéfice, personne ne supporte les coûts de maintenance, et finalement la ressource s'épuise.

L'idéal partagé de la « démocratisation »

Il est intéressant de noter que Wikipédia et les entreprises d'IA partagent l'idéal de « démocratisation ». Wikipédia prône la « démocratisation de l'accès au savoir », tandis que des entreprises comme Anthropic, OpenAI, Amazon et Microsoft prônent la « démocratisation de l'IA ». Les deux reposent sur la philosophie que « tout le monde, pas seulement les détenteurs de pouvoir spécifiques ou les riches, devrait en bénéficier ».

Cet idéal partagé pourrait être la clé d'une solution. Si nous pouvons passer du cadre de conflit actuel « entreprises d'IA contre Wikipédia » à un cadre où « l'ennemi commun est la monopolisation et l'accaparement de l'information, et les deux parties sont du même côté », une voie de collaboration s'ouvre.

La courtoisie compte : renvoyer du trafic par l'affichage de liens


Même si le soutien financier est difficile, il existe une courtoisie minimale que les entreprises d'IA peuvent offrir. C'est d'indiquer clairement quand les informations de Wikipédia sont utilisées et d'afficher des liens vers celles-ci.

Lorsque les utilisateurs posent des questions à l'IA et que la réponse est basée sur des informations de Wikipédia, afficher un lien vers la page Wikipédia pertinente. C'est techniquement facile et a déjà été mis en œuvre dans certains services d'IA comme Perplexity AI et Microsoft Copilot.

Cette mesure présente de multiples avantages :
  • Assurer la transparence : clarifier quelles sources d'information l'IA utilise

  • Renvoyer du trafic : récupérer le lectorat humain en déclin

  • Répondre à la critique de « vol de connaissances » : dissiper les problèmes éthiques en citant les sources


Le problème de Wikipédia est que l'accès automatisé par les entreprises d'IA augmente la charge des serveurs tandis que le nombre de lecteurs humains diminue.
L'affichage de liens aborde directement ce problème. Nous devons distinguer entre le scraping massif pendant l'entraînement et l'accès naturel via les utilisateurs. Ce dernier signifierait que les « lecteurs humains » que Wikipédia attend à l'origine reviennent.

De plus, si des leaders de l'infrastructure cloud comme Amazon fournissent un soutien en infrastructure tel qu'un CDN (Content Delivery Network), le problème de charge des serveurs pourrait être considérablement réduit. Amazon dispose déjà de programmes de soutien pour les organisations à but non lucratif, et la Fondation Wikimedia pourrait bien être éligible.

L'IA peut-elle devenir membre de Wikipédia ? La possibilité d'un soutien éditorial


Une forme de collaboration plus proactive serait que les entreprises d'IA soutiennent l'édition de Wikipédia. Cependant, cela nécessite une réflexion approfondie.

La communauté des éditeurs de Wikipédia est composée de personnes qui ont passé des années à se concentrer sur l'écriture et à s'engager dans la discussion et la recherche de consensus. Pour eux, voir l'IA commencer à rédiger des articles pourrait donner l'impression que leur valeur est niée. De plus, parce qu'ils ont la capacité de détecter l'écriture « plausible mais inexacte » de l'IA, le scepticisme envers l'IA est profond.

Par conséquent, je propose une approche où l'IA ne fait que « donner des avis », tandis que toute l'édition et les décisions sont prises par les humains.

Concrètement, l'IA analyserait les articles de Wikipédia et proposerait des « avis » tels que :

  • « Cette affirmation semble contredire la source A »

  • « Ce paragraphe peut avoir des problèmes de neutralité »

  • « Les perspectives suivantes peuvent manquer sur ce sujet »

  • « Par rapport à des articles similaires, cette structure peut être améliorée »

Ce ne sont que des informations pour aider le jugement des éditeurs, pas des ordres. L'édition finale, les décisions et la recherche de consensus sont toutes effectuées par des humains. L'IA ne fait que donner des avis en tant que « participant », et la souveraineté des éditeurs est pleinement respectée.

Cette approche s'aligne sur la culture de Wikipédia. Wikipédia a toujours accueilli les « perspectives multiples » et mis l'accent sur la discussion dans les pages de discussion. Si l'IA n'est qu'« un participant qui donne des avis », elle peut naturellement s'intégrer dans cette culture.

Ce qui est important, c'est de le rendre optionnel (opt-in).
Les avis et suggestions de l'IA seraient désactivés par défaut, activés uniquement par les éditeurs qui souhaitent les utiliser.
Si les fonctions peuvent être sélectionnées progressivement (traduction uniquement, révision uniquement, etc.), l'autonomie des éditeurs peut être pleinement respectée.

Laisser les langues mineures à l'IA : la possibilité de génération d'articles par l'IA

Séparément du soutien éditorial, il existe une autre possibilité : la génération d'articles par l'IA dans les versions linguistiques avec très peu d'éditeurs.

Il existe de nombreux articles qui existent sur Wikipédia en anglais mais pas dans d'autres versions linguistiques.
En particulier dans les versions linguistiques mineures avec moins de 10 éditeurs, les ressources humaines font cruellement défaut, et le manque de personnel est un problème grave. Dans de telles situations, le choix est entre « l'IA écrit » ou « rien n'existe ». Même imparfait, il y a une valeur à avoir quelques informations.

Plusieurs conditions rendraient la génération d'articles par l'IA acceptable :

  • Étiquetage clair : indiquer clairement « Cet article a été généré par l'IA »

  • Priorité aux humains : les éditeurs ont le pouvoir de modifier ou de supprimer

  • Introduction progressive : commencer par les versions linguistiques avec le moins d'éditeurs

  • Limiter les types d'articles : géographie, biologie, astronomie, etc. ; éviter les sujets controversés comme la politique, l'histoire, la religion

  • Dialogue communautaire : obtenir un consensus de chaque version linguistique

La combinaison « versions linguistiques avec peu d'éditeurs » × « articles qui n'existent pas » est le point idéal avec le moins de résistance. Commencer ici et s'étendre progressivement en cas de succès — c'est la voie réaliste.

Conclusion


Le conflit entre Wikipédia et les entreprises d'IA est essentiellement une « tragédie des biens communs ». Cependant, si nous reconnaissons que les deux partagent l'idéal de « démocratisation », une voie de collaboration plutôt que de conflit devient visible.

Je propose les solutions concrètes suivantes :
  • Affichage de liens : lorsque l'IA utilise des informations de Wikipédia, toujours afficher des liens pour renvoyer du trafic

  • Soutien en infrastructure : des entreprises comme Amazon fournissent un CDN pour réduire la charge des serveurs

  • IA de soutien éditorial : l'IA ne fait que « donner des avis », tandis que toute l'édition et les décisions sont prises par les humains (approche opt-in)

  • Génération d'articles par l'IA : limitée aux versions linguistiques avec très peu d'éditeurs et aux articles qui n'existent pas

Toutes ces solutions sont réalisables sans charge financière et respectent l'autonomie de la communauté des éditeurs.

Je crois que Wikipédia et l'IA sont tous deux indispensables à la société moderne. Personne ne bénéficie du conflit et de la destruction mutuelle.

En tant que personne qui gère également un petit site web, les défis de Wikipédia ne sont pas le problème de quelqu'un d'autre. La difficulté de continuer à créer du contenu de qualité et la question de comment faire face à l'IA sont des thèmes que tous les créateurs de contenu, quelle que soit leur taille, devraient considérer. J'espère que cet article deviendra un catalyseur pour un dialogue constructif.

Licence

2023-2025 Copyright Mike Turkey All rights reserved.
Scope: This license applies to all non-code text content on miketurkey.com.
- Unauthorized copying and republication of this document is prohibited.
- Direct linking to this URL is permitted.
- If cited, summarized, or transformed, this copyright notice must be retained.
Banner illustration: Generated by MikeTurkey using DALL-E 3 (ChatGPT)
French Translation: AI-translated by Claude (Anthropic)

Back to the English version