Malgré toutes ses promesses, l’IA fait actuellement face à une crise de confiance de plus en plus profonde.
Les outils que nous utilisons quotidiennement, de ChatGPT et Midjourney à des assistants médicaux et des copilotes financiers alimentés par l’IA, sont formés sur des données collectées en grande partie sans consentement, construites derrière des portes closes et gérées par des entités qui manquent de transparence et qui n’ont pas l’obligation de partager les récompenses. La confiance dans ces systèmes s’érode rapidement, et à juste titre.
Selon le Baromètre de la confiance 2024 d’Edelman, la confiance mondiale dans les entreprises d’IA est tombée à 53 %, contre 61 % il y a à peine cinq ans. Aux États-Unis, ce pourcentage a chuté à 35 %. Un sondage Reuters mené en juin a montré que plus de la moitié des répondants américains ne font pas confiance aux informations générées par l’IA. Pourtant, la technologie continue de progresser, s’incrustant dans tout, de l’assistance juridique et de l’éducation à la modération de contenu et aux soins de santé.
Le problème n’est pas l’IA elle-même, mais le système extractif qui la sous-tend.
Le véritable problème
Le cœur du problème de confiance dans l’IA est le manque d’une couche économique qui trace qui contribue à ces modèles, qui en bénéficie, et comment les décisions sont prises.
Les entreprises d’IA traditionnelles fonctionnent sur des pipelines opaques. Les données publiques sont ingérées en silence, le travail humain est caché, et les résultats du modèle sont traités comme des résultats de boîte noire. Des milliards de dollars sont réalisés sur le dos de contributeurs qui ne voient jamais un centime.
Nous voyons les conséquences avec les poursuites contre OpenAI et Google pour l’utilisation non autorisée de données d’apprentissage. La bataille juridique du New York Times pour le raclage de contenu, les préoccupations croissantes concernant la désinformation et le biais, et la centralisation non vérifiée du pouvoir dans quelques laboratoires d’IA.
La blockchain peut faire ce que l’IA ne peut pas
L’ascension rapide de l’IA a apporté d’immenses capacités, mais aussi des lacunes flagrantes dans la manière dont la valeur est attribuée, dont les décisions sont auditées et dont les contributeurs sont récompensés.
C’est ici que la blockchain peut agir comme une véritable force corrective, avec l’idée de l’IA payante, un nouveau cadre qui intègre directement l’attribution, la responsabilité et les récompenses dans le cycle de développement de l’IA. Que quelqu’un étiquette des données ou ajuste des sorties, il peut être reconnu et rémunéré de manière transparente grâce à des contrats intelligents et à des preuves de chaîne.
Une innovation clé qui permet cela est la preuve d’attribution, une méthode qui trace de manière vérifiable chaque étape de l’évolution d’un modèle jusqu’à sa source. Chaque ensemble de données, chaque ajustement, chaque contribution devient une partie d’un grand livre transparent et auditable.
Imaginez une version open source de Scale AI, sauf qu’au lieu de fournir des systèmes propriétaires à Big Tech, elle débloque des pipelines de données publics où la valeur coule vers la multitude, pas vers la minorité.
Pourquoi maintenant
Alors que les agents d’IA deviennent de plus en plus autonomes, s’incrustent dans des applications grand public comme Telegram (via xAI et TON) et commencent à générer des revenus, nous devons nous demander : qui est payé ?
Actuellement, il n’existe pas l’équivalent d’AWS pour les données. Aucun modèle de SaaS qui permettrait aux particuliers de télécharger, d’attribuer et de monétiser leurs contributions à l’IA. Voilà la couche manquante.
Et en ce moment de montée en pression économique et de méfiance croissante à l’égard de la technologie, le besoin en infrastructure qui intègre l’équité économique est urgent.
L’alternative web3 à l’IA fermée
Des entreprises comme Meta investissent des milliards dans des pipelines centralisés, contrôlant tout, des données brutes au déploiement du modèle. Ces 15 milliards de dollars ne sont pas seulement un pari sur l’étiquetage, mais aussi sur le contrôle de toute la chaîne de valeur de l’IA. L’avenir exige des systèmes où la valeur revient à ceux qui l’ont créée.
Si nous n’agissons pas maintenant, l’IA suivra la même trajectoire que le Web2, avec une poignée de géants qui extrairont une valeur disproportionnée pendant que tout le monde regardera depuis la ligne de touche.
L’IA n’est plus expérimentale, elle alimente les systèmes sur lesquels nous comptons quotidiennement. Et pourtant, les couches fondamentales restent fermées, biaisées et opaques.
La blockchain peut remédier à cela, en introduisant la vérifiabilité, la traçabilité et l’équité économique intégrée que les systèmes d’IA n’ont pas intrinsèquement.
La prochaine phase de l’IA portera sur la crédibilité, et cela commence par instaurer la confiance dans l’infrastructure de l’intelligence elle-même.