Nous nous émerveillons de l'intelligence des derniers modèles d'IA — jusqu'à ce qu'ils nous présentent avec confiance des absurdités complètes. L'ironie est difficile à manquer : à mesure que les systèmes d'IA deviennent plus puissants, leur capacité à distinguer le vrai du faux ne s'améliore pas nécessairement. D'une certaine manière, cela s'aggrave.
Résumé
L'IA reflète nos défauts d'information. Des modèles comme GPT-5 ont du mal car les données d'entraînement sont polluées par du contenu viral axé sur l'engagement qui privilégie la sensation au détriment de l'exactitude.
La vérité n'est plus un jeu à somme nulle. De nombreuses “vérités” coexistent, mais les plateformes actuelles centralisent le flux d'informations, créant des chambres d'écho et des biais qui nourrissent à la fois les humains et l'IA.
L'attribution décentralisée corrige le cycle. Les systèmes liés à la réputation et à l'identité, alimentés par des primitives cryptographiques, peuvent récompenser l'exactitude, filtrer le bruit et former l'IA sur des données vérifiables et fiables.
Considérez les propres résultats d'OpenAI : une version de GPT-4 (codée “o3”) a halluciné des réponses environ 33 % du temps lors des tests de référence, selon le document de l'entreprise. Son successeur plus petit (“o4-mini”) a déraillé près de la moitié du temps. Le nouveau modèle, GPT-5, était censé corriger cela et affirme en effet halluciner beaucoup moins (~9%). Pourtant, de nombreux utilisateurs expérimentés trouvent GPT-5 plus lent en pratique—plus hésitant, et encore souvent incorrect (démontrant également le fait que les tests de référence ne nous mènent qu'à un certain point).
La frustration du CTO de Nillion, John Woods, était explicite lorsqu'il a déclaré que ChatGPT était passé de « essentiel à poubelle » après la sortie de GPT-5. Pourtant, la réalité est que les modèles plus avancés deviendront de plus en plus mauvais pour faire la différence entre la vérité et le bruit. Tous, pas seulement GPT.
Pourquoi une IA plus avancée semblerait-elle moins fiable que ses prédécesseurs ? Une raison est que ces systèmes ne sont aussi bons que leurs données d'entraînement, et les données que nous donnons à l'IA sont fondamentalement défectueuses. Aujourd'hui, ces données proviennent en grande partie d'un paradigme de l'information où l'engagement l'emporte sur l'exactitude, tandis que des gardiens centralisés amplifient le bruit par rapport au signal pour maximiser les profits. Il est donc naïf de s'attendre à une IA véridique sans d'abord résoudre le problème des données.
Les données d'entraînement de haute qualité disparaissent plus vite que nous ne les créons. Il y a une boucle de dégradation récursive en jeu : l'IA digère principalement des données basées sur le web ; le web devient de plus en plus pollué par des contenus trompeurs et non vérifiables produits par l'IA ; les données synthétiques entraînent la prochaine génération de modèles à être encore plus déconnectés de la réalité.
Plus que de mauvais ensembles d'entraînement, il s'agit de l'architecture fondamentale de la façon dont nous organisons et vérifions les informations en ligne. Plus de 65 % de la population mondiale passe des heures sur des plateformes de médias sociaux conçues pour maximiser l'engagement. Nous sommes donc exposés, à une échelle sans précédent, à des algorithmes qui récompensent involontairement la désinformation.
Les fausses histoires déclenchent des réponses émotionnelles plus fortes, elles se propagent donc plus rapidement que les affirmations correctives. Ainsi, le contenu le plus viral — c'est-à-dire celui qui est le plus susceptible d'être intégré dans les pipelines de formation de l'IA — est systématiquement biaisé en faveur de la sensation plutôt que de l'exactitude.
Les plateformes tirent également profit de l'attention, pas de la vérité. Les créateurs de données sont récompensés pour leur viralité, pas pour leur véracité. Les entreprises d'IA s'optimisent pour la satisfaction et l'engagement des utilisateurs, pas pour l'exactitude factuelle. Et le « succès » pour les chatbots est de garder les utilisateurs accrochés avec des réponses plausibles.
Cela dit, la crise des données/confiance de l'IA est vraiment une extension du poisoning continu de notre conscience humaine collective. Nous alimentons l'IA avec ce que nous consommons nous-mêmes. Les systèmes d'IA ne peuvent pas faire la différence entre la vérité et le bruit, car nous-mêmes ne le pouvons pas.
La vérité est finalement un consensus. Quiconque contrôle le flux d'informations contrôle également les récits que nous percevons collectivement comme « vérité » après qu'ils aient été répétés un nombre suffisant de fois. Et en ce moment, un tas de grandes entreprises détiennent les rênes de la vérité, pas nous en tant qu'individus. Cela peut changer. Cela doit.
L'émergence de l'IA véridique est un jeu à somme positive
Comment réparons-nous cela ? Comment réalignons-nous notre écosystème d'information — et par extension, l'IA — vers la vérité ? Cela commence par réimaginer comment la vérité est créée et maintenue en premier lieu.
Dans le statu quo, nous traitons souvent la vérité comme un jeu à somme nulle décidé par celui qui a la voix la plus forte ou la plus haute autorité. L'information est cloisonnée et étroitement contrôlée ; chaque plateforme ou institution pousse sa propre version de la réalité. Un AI ( ou une personne ) coincé dans l'une de ces silos finit par avoir une vision du monde étroite et biaisée. C'est ainsi que nous obtenons des chambres d'écho, et c'est ainsi que les humains et les AI finissent par être induits en erreur.
Mais beaucoup de vérités dans la vie ne sont pas des propositions binaires à somme nulle. En fait, la plupart des vérités significatives sont à somme positive - elles peuvent coexister et se compléter. Quel est le « meilleur » restaurant à New York ? Il n'y a pas de réponse correcte unique, et c'est la beauté de la chose : la vérité dépend de votre goût, de votre budget, de votre humeur. Ma chanson préférée, étant un classique du jazz, ne rend pas votre hymne pop préféré moins « vrai » pour vous. Le gain de compréhension d'une personne ne doit pas signifier la perte d'une autre. Nos perspectives peuvent différer sans s'annuler.
C'est pourquoi l'attribution vérifiable et les primitives de réputation sont si critiques. La vérité ne peut pas seulement concerner le contenu d'une affirmation — elle doit également tenir compte de qui la fait, quels sont ses incitatifs et comment son passé est évalué. Si chaque assertion en ligne était accompagnée d'une chaîne d'auteur claire et d'un score de réputation vivant, nous pourrions trier le bruit sans céder le contrôle à des modérateurs centralisés. Un acteur de mauvaise foi essayant de diffuser de la désinformation verrait sa réputation dégradée à chaque fausse affirmation. Un contributeur réfléchi avec un long parcours de précision verrait sa réputation — et son influence — augmenter.
La crypto nous donne les éléments de base pour faire fonctionner cela : des identifiants décentralisés, des registres curatés par des jetons, des mécanismes de staking et des structures d'incitation qui transforment l'exactitude en bien économique. Imaginez un graphe de connaissances où chaque affirmation est liée à une identité vérifiable, chaque perspective porte un score de réputation et chaque affirmation de vérité peut être contestée, mise en jeu et jugée dans un système ouvert. Dans ce monde, la vérité n'est pas transmise par une seule plateforme — elle émerge organiquement d'un réseau de voix attribuées et pondérées par la réputation.
Un tel système renverse le paysage des incitations. Au lieu que les créateurs de contenu poursuivent la viralité au détriment de l'exactitude, ils mettraient en jeu leur réputation — et souvent des tokens littéraux — sur la validité de leurs contributions. Au lieu que l'IA s'entraîne sur des données anonymes et de mauvaise qualité, elle serait entraînée sur des données attribuées et pondérées par la réputation, où la vérité et la fiabilité sont intégrées dans la structure même de l'information.
Considérez maintenant l'IA dans ce contexte. Un modèle entraîné sur un tel graphe conscient de la réputation consommerait un signal beaucoup plus clair. Il ne se contenterait pas de répéter la revendication la plus virale ; il apprendrait à prendre en compte l'attribution et la crédibilité. Au fil du temps, les agents eux-mêmes pourraient participer à ce système — en stakant sur leurs résultats, en construisant leurs propres réputations et en rivalisant non seulement sur l'éloquence mais sur la fiabilité.
C'est ainsi que nous rompons le cycle de l'information empoisonnée et construisons une IA qui reflète une vision de la vérité à somme positive et décentralisée. Sans attribution vérifiable et réputation décentralisée, nous serons toujours coincés à externaliser la “vérité” vers des plateformes centralisées, et nous serons toujours vulnérables à la manipulation.
Avec eux, nous pouvons enfin dépasser l'autorité à somme nulle et nous diriger vers un système où la vérité émerge de manière dynamique, résiliente et — surtout — ensemble.
Billy Luedtke
Billy Luedtke construit à la frontière de la blockchain depuis Bitcoin en 2012 et Ethereum en 2014. Il a aidé à lancer le cabinet de conseil blockchain d'EY et a passé plus de cinq ans chez ConsenSys à façonner l'écosystème Ethereum à travers des rôles en R&D, Relations Développeurs, ingénierie de jetons et identité décentralisée. Billy a également contribué à la pionnière de l'identité auto-souveraine en tant que Responsable Entreprise chez uPort, Co-Président du Groupe de Travail sur l'Identité Numérique de l'EEA, et membre fondateur de la Decentralized Identity Foundation. Aujourd'hui, il est le fondateur d'Intuition, la chaîne native pour la Finance de l'Information, transformant les identités, les revendications et la réputation en données vérifiables et monétisables pour le prochain internet.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Le point aveugle de l'IA : les machines ne peuvent pas séparer la vérité du bruit.
Nous nous émerveillons de l'intelligence des derniers modèles d'IA — jusqu'à ce qu'ils nous présentent avec confiance des absurdités complètes. L'ironie est difficile à manquer : à mesure que les systèmes d'IA deviennent plus puissants, leur capacité à distinguer le vrai du faux ne s'améliore pas nécessairement. D'une certaine manière, cela s'aggrave.
Résumé
Considérez les propres résultats d'OpenAI : une version de GPT-4 (codée “o3”) a halluciné des réponses environ 33 % du temps lors des tests de référence, selon le document de l'entreprise. Son successeur plus petit (“o4-mini”) a déraillé près de la moitié du temps. Le nouveau modèle, GPT-5, était censé corriger cela et affirme en effet halluciner beaucoup moins (~9%). Pourtant, de nombreux utilisateurs expérimentés trouvent GPT-5 plus lent en pratique—plus hésitant, et encore souvent incorrect (démontrant également le fait que les tests de référence ne nous mènent qu'à un certain point).
La frustration du CTO de Nillion, John Woods, était explicite lorsqu'il a déclaré que ChatGPT était passé de « essentiel à poubelle » après la sortie de GPT-5. Pourtant, la réalité est que les modèles plus avancés deviendront de plus en plus mauvais pour faire la différence entre la vérité et le bruit. Tous, pas seulement GPT.
Pourquoi une IA plus avancée semblerait-elle moins fiable que ses prédécesseurs ? Une raison est que ces systèmes ne sont aussi bons que leurs données d'entraînement, et les données que nous donnons à l'IA sont fondamentalement défectueuses. Aujourd'hui, ces données proviennent en grande partie d'un paradigme de l'information où l'engagement l'emporte sur l'exactitude, tandis que des gardiens centralisés amplifient le bruit par rapport au signal pour maximiser les profits. Il est donc naïf de s'attendre à une IA véridique sans d'abord résoudre le problème des données.
L'IA reflète notre empoisonnement collectif d'informations
Les données d'entraînement de haute qualité disparaissent plus vite que nous ne les créons. Il y a une boucle de dégradation récursive en jeu : l'IA digère principalement des données basées sur le web ; le web devient de plus en plus pollué par des contenus trompeurs et non vérifiables produits par l'IA ; les données synthétiques entraînent la prochaine génération de modèles à être encore plus déconnectés de la réalité.
Plus que de mauvais ensembles d'entraînement, il s'agit de l'architecture fondamentale de la façon dont nous organisons et vérifions les informations en ligne. Plus de 65 % de la population mondiale passe des heures sur des plateformes de médias sociaux conçues pour maximiser l'engagement. Nous sommes donc exposés, à une échelle sans précédent, à des algorithmes qui récompensent involontairement la désinformation.
Les fausses histoires déclenchent des réponses émotionnelles plus fortes, elles se propagent donc plus rapidement que les affirmations correctives. Ainsi, le contenu le plus viral — c'est-à-dire celui qui est le plus susceptible d'être intégré dans les pipelines de formation de l'IA — est systématiquement biaisé en faveur de la sensation plutôt que de l'exactitude.
Les plateformes tirent également profit de l'attention, pas de la vérité. Les créateurs de données sont récompensés pour leur viralité, pas pour leur véracité. Les entreprises d'IA s'optimisent pour la satisfaction et l'engagement des utilisateurs, pas pour l'exactitude factuelle. Et le « succès » pour les chatbots est de garder les utilisateurs accrochés avec des réponses plausibles.
Cela dit, la crise des données/confiance de l'IA est vraiment une extension du poisoning continu de notre conscience humaine collective. Nous alimentons l'IA avec ce que nous consommons nous-mêmes. Les systèmes d'IA ne peuvent pas faire la différence entre la vérité et le bruit, car nous-mêmes ne le pouvons pas.
La vérité est finalement un consensus. Quiconque contrôle le flux d'informations contrôle également les récits que nous percevons collectivement comme « vérité » après qu'ils aient été répétés un nombre suffisant de fois. Et en ce moment, un tas de grandes entreprises détiennent les rênes de la vérité, pas nous en tant qu'individus. Cela peut changer. Cela doit.
L'émergence de l'IA véridique est un jeu à somme positive
Comment réparons-nous cela ? Comment réalignons-nous notre écosystème d'information — et par extension, l'IA — vers la vérité ? Cela commence par réimaginer comment la vérité est créée et maintenue en premier lieu.
Dans le statu quo, nous traitons souvent la vérité comme un jeu à somme nulle décidé par celui qui a la voix la plus forte ou la plus haute autorité. L'information est cloisonnée et étroitement contrôlée ; chaque plateforme ou institution pousse sa propre version de la réalité. Un AI ( ou une personne ) coincé dans l'une de ces silos finit par avoir une vision du monde étroite et biaisée. C'est ainsi que nous obtenons des chambres d'écho, et c'est ainsi que les humains et les AI finissent par être induits en erreur.
Mais beaucoup de vérités dans la vie ne sont pas des propositions binaires à somme nulle. En fait, la plupart des vérités significatives sont à somme positive - elles peuvent coexister et se compléter. Quel est le « meilleur » restaurant à New York ? Il n'y a pas de réponse correcte unique, et c'est la beauté de la chose : la vérité dépend de votre goût, de votre budget, de votre humeur. Ma chanson préférée, étant un classique du jazz, ne rend pas votre hymne pop préféré moins « vrai » pour vous. Le gain de compréhension d'une personne ne doit pas signifier la perte d'une autre. Nos perspectives peuvent différer sans s'annuler.
C'est pourquoi l'attribution vérifiable et les primitives de réputation sont si critiques. La vérité ne peut pas seulement concerner le contenu d'une affirmation — elle doit également tenir compte de qui la fait, quels sont ses incitatifs et comment son passé est évalué. Si chaque assertion en ligne était accompagnée d'une chaîne d'auteur claire et d'un score de réputation vivant, nous pourrions trier le bruit sans céder le contrôle à des modérateurs centralisés. Un acteur de mauvaise foi essayant de diffuser de la désinformation verrait sa réputation dégradée à chaque fausse affirmation. Un contributeur réfléchi avec un long parcours de précision verrait sa réputation — et son influence — augmenter.
La crypto nous donne les éléments de base pour faire fonctionner cela : des identifiants décentralisés, des registres curatés par des jetons, des mécanismes de staking et des structures d'incitation qui transforment l'exactitude en bien économique. Imaginez un graphe de connaissances où chaque affirmation est liée à une identité vérifiable, chaque perspective porte un score de réputation et chaque affirmation de vérité peut être contestée, mise en jeu et jugée dans un système ouvert. Dans ce monde, la vérité n'est pas transmise par une seule plateforme — elle émerge organiquement d'un réseau de voix attribuées et pondérées par la réputation.
Un tel système renverse le paysage des incitations. Au lieu que les créateurs de contenu poursuivent la viralité au détriment de l'exactitude, ils mettraient en jeu leur réputation — et souvent des tokens littéraux — sur la validité de leurs contributions. Au lieu que l'IA s'entraîne sur des données anonymes et de mauvaise qualité, elle serait entraînée sur des données attribuées et pondérées par la réputation, où la vérité et la fiabilité sont intégrées dans la structure même de l'information.
Considérez maintenant l'IA dans ce contexte. Un modèle entraîné sur un tel graphe conscient de la réputation consommerait un signal beaucoup plus clair. Il ne se contenterait pas de répéter la revendication la plus virale ; il apprendrait à prendre en compte l'attribution et la crédibilité. Au fil du temps, les agents eux-mêmes pourraient participer à ce système — en stakant sur leurs résultats, en construisant leurs propres réputations et en rivalisant non seulement sur l'éloquence mais sur la fiabilité.
C'est ainsi que nous rompons le cycle de l'information empoisonnée et construisons une IA qui reflète une vision de la vérité à somme positive et décentralisée. Sans attribution vérifiable et réputation décentralisée, nous serons toujours coincés à externaliser la “vérité” vers des plateformes centralisées, et nous serons toujours vulnérables à la manipulation.
Avec eux, nous pouvons enfin dépasser l'autorité à somme nulle et nous diriger vers un système où la vérité émerge de manière dynamique, résiliente et — surtout — ensemble.
Billy Luedtke
Billy Luedtke construit à la frontière de la blockchain depuis Bitcoin en 2012 et Ethereum en 2014. Il a aidé à lancer le cabinet de conseil blockchain d'EY et a passé plus de cinq ans chez ConsenSys à façonner l'écosystème Ethereum à travers des rôles en R&D, Relations Développeurs, ingénierie de jetons et identité décentralisée. Billy a également contribué à la pionnière de l'identité auto-souveraine en tant que Responsable Entreprise chez uPort, Co-Président du Groupe de Travail sur l'Identité Numérique de l'EEA, et membre fondateur de la Decentralized Identity Foundation. Aujourd'hui, il est le fondateur d'Intuition, la chaîne native pour la Finance de l'Information, transformant les identités, les revendications et la réputation en données vérifiables et monétisables pour le prochain internet.