最新のAIモデルがどれほど賢くなったかに驚かされますが、それが私たちに完全なナンセンスを自信満々に提示するまでです。この皮肉は見逃しがたいものです:AIシステムがより強力になるにつれて、事実とフィクションを区別する能力は必ずしも向上していません。ある意味では、悪化しています。サマリー* AIは私たちの情報の欠陥を反映します。GPT-5のようなモデルは、トレーニングデータが感覚を優先し、正確性を損なうウイルス的でエンゲージメント駆動のコンテンツで汚染されているため、苦労しています。* 真実はもはやゼロサムではない。多くの「真実」が共存しているが、現在のプラットフォームは情報の流れを中央集権化し、エコーチェンバーやバイアスを生み出し、人間とAIの両方に影響を与えている。* 分散型アトリビューションはサイクルを修正します。暗号プライミティブによって支えられた評判およびアイデンティティにリンクされたシステムは、正確性を報酬し、ノイズをフィルタリングし、検証可能で信頼できるデータに基づいてAIを訓練できます。OpenAI自身の調査結果を考慮してください:GPT-4のあるバージョン(コードネーム「o3」)は、同社の論文によると、ベンチマークテストで約33%の確率で幻覚的な回答をしました。その小型後継機(「o4-mini」)は、ほぼ半分の確率で脱線しました。最新のモデル、GPT-5はこの問題を解決することになっており、実際に幻覚を起こす確率がかなり少ない(~9%)であると主張しています。しかし、多くの経験豊富なユーザーは、実際にはGPT-5がより愚かであると感じています—遅く、ためらいがちで、依然としてしばしば間違っています(また、ベンチマークが私たちをどれほど進めるかの事実を示しています)。NillionのCTO、ジョン・ウッズのフラストレーションは明白で、彼はChatGPTがGPT-5のリリース後「必須からゴミになった」と言いました。しかし現実は、より高度なモデルは真実とノイズの区別がますます悪くなるということです。すべてのモデルがそうです、GPTだけではありません。なぜ、より高度なAIがその前のものよりも信頼性が低いと感じるのでしょうか?一つの理由は、これらのシステムはトレーニングデータの良さに依存しており、私たちがAIに与えているデータが根本的に欠陥があるからです。今日、このデータは主に、エンゲージメントが正確さを超える情報のパラダイムから来ており、中央集権的なゲートキーパーが利益を最大化するためにノイズをシグナルよりも増幅しています。したがって、データの問題をまず修正せずに真実のAIを期待するのは無知です。## AIは私たちの集合的な情報中毒を反映する高品質なトレーニングデータは、私たちが作成するよりも早く消失しています。ここには再帰的な劣化ループが働いています:AIは主にウェブベースのデータを消化します;ウェブはますます誤解を招く、検証不可能なAIのゴミで汚染されています;合成データは次世代のモデルを訓練し、現実からさらに乖離させます。悪いトレーニングセットよりも、私たちがオンラインで情報を整理し、検証する基本的なアーキテクチャに関する問題です。世界の人口の65%以上が、エンゲージメントを最大化するために設計されたソーシャルメディアプラットフォームで何時間も過ごしています。そのため、私たちは前例のない規模で、誤情報を意図せず報酬するアルゴリズムにさらされています。虚偽のストーリーはより強い感情的反応を引き起こすため、訂正の主張よりも早く広まります。したがって、最もバイラルなコンテンツ、つまりAIのトレーニングパイプラインに取り込まれる可能性が最も高いコンテンツは、正確さよりもセンセーションに系統的に偏っています。プラットフォームは真実ではなく、注目からも利益を得ています。データクリエイターは真実性ではなく、バイラリティに対して報酬を受け取ります。AI企業は事実の正確さではなく、ユーザーの満足度とエンゲージメントを最適化します。そして、チャットボットにとっての「成功」とは、ユーザーを引き込むようなもっともらしい応答を提供することです。つまり、AIのデータ/信頼の危機は、私たちの集合的な人間意識の継続的な毒殺の延長に過ぎません。私たちはAIに自分たちが消費しているものを与えています。AIシステムは、私たち自身ができないため、真実とノイズを区別できません。結局、真実は合意です。情報の流れを制御する者は、私たちが集団的に「真実」として認識する物語をも制御します。それが十分に繰り返されると。現在、大規模な企業のいくつかが真実の手綱を握っており、私たち個人ではありません。それは変わる可能性があります。変わらなければなりません。## 真実のAIの出現はポジティブサムゲームであるこれをどう修正しますか?私たちは情報エコシステム、そしてその延長としてAIを真実に向けて再調整するにはどうすればよいでしょうか?それは、真実がどのように創造され、維持されるかを再考することから始まります。現状では、私たちはしばしば真実を、最も大きな声を持つ者や最高の権威によって決定されるゼロサムゲームとして扱います。情報はサイロ化され、厳しく管理されています。各プラットフォームや機関は、自身の現実のバージョンを押し出します。AI (や人間)がこれらのサイロの一つに閉じ込められると、狭く偏った世界観を持つことになります。これがエコーチェンバーを生み出し、人間とAIの両方が誤解される原因になります。しかし、人生における多くの真実はバイナリーでゼロサムの命題ではありません。実際、多くの意味のある真実はポジティブサムです — それらは共存し、お互いを補完することができます。ニューヨークでの「最高の」レストランはどこですか?単一の正しい答えはなく、それがその美しさです:真実はあなたの好み、予算、気分によって異なります。私のお気に入りの曲はジャズのクラシックですが、それがあなたのお気に入りのポップアンセムを「真実」ではなくすることはありません。一人の理解の向上は、必ずしも他の人の損失を意味するわけではありません。私たちの視点は、お互いを無効にすることなく異なることができます。これが、検証可能な帰属と評判の原則が非常に重要である理由です。真実は主張の内容だけではなく、それを行っている人物、彼らのインセンティブ、そして彼らの過去の実績がどのように維持されているかに関わっています。オンライン上のすべての主張が明確な著作権の連鎖と生きた評判スコアを伴っていれば、私たちはノイズを選別し、中央集権的なモデレーターに対するコントロールを手放さずに済むでしょう。虚偽の情報を広めようとする悪意のある行為者は、毎回の虚偽の主張によって彼らの評判が低下することを発見するでしょう。長い正確性の実績を持つ思慮深い貢献者は、彼らの評判と影響力が高まるのを見るでしょう。暗号は、これを実現するための構成要素を提供します:分散型識別子、トークンキュレーションレジストリ、ステーキングメカニズム、そして正確性を経済的な価値に変えるインセンティブ構造。すべての声明が検証可能なアイデンティティに結びつき、すべての視点が評判スコアを持ち、すべての真実の主張が挑戦され、ステークされ、オープンなシステムで裁定される知識グラフを想像してください。その世界では、真実は単一のプラットフォームから与えられるのではなく、属性があり、評判に基づいた声のネットワークから有機的に生まれます。そのようなシステムはインセンティブの風景をひっくり返します。コンテンツクリエイターが正確性を犠牲にしてバイラリティを追い求めるのではなく、彼らは自分の貢献の妥当性に基づいて、自分の評判 — そしてしばしば文字通りのトークン — を賭けることになります。AIが匿名のスロップで訓練されるのではなく、真実と信頼性が情報自体の構造に組み込まれた、帰属され、評判に基づいたデータで訓練されることになります。この文脈でAIを考えてみましょう。評判を意識したグラフでトレーニングされたモデルは、はるかにクリーンな信号を受け取ります。それは単に最もバイラルな主張を繰り返すだけでなく、帰属や信頼性を考慮することを学びます。時間が経つにつれて、エージェント自身がこのシステムに参加し、自分の出力にステーキングし、自分の評判を築き、雄弁さだけでなく信頼性においても競争することができるでしょう。それが、毒された情報のサイクルを打破し、ポジティブサムで分散型の真実のビジョンを反映するAIを構築する方法です。検証可能な帰属と分散型の評判がなければ、私たちは常に「真実」を中央集権的なプラットフォームにアウトソーシングすることになり、操作に対して常に脆弱なままでしょう。彼らと共に、私たちはついにゼロサムの権威を超え、真実が動的に、強靭に、そして最も重要なことに、共に浮かび上がるシステムに向かうことができます。ビリー・ルートケ**ビリー・ルエトケ**は、2012年のビットコインと2014年のイーサリアム以来、ブロックチェーンの最前線で活動してきました。彼はEYのブロックチェーンコンサルティングプラクティスの立ち上げに貢献し、ConsenSysでは5年以上にわたりR&D、デベロッパーリレーションズ、トークンエンジニアリング、分散型アイデンティティを通じてイーサリアムエコシステムの形成に携わりました。ビリーはまた、uPortのエンタープライズリードとして、EEAのデジタルアイデンティティワーキンググループの共同議長、分散型アイデンティティファウンデーションの創設メンバーとして自己主権的アイデンティティの先駆者としても貢献しました。今日、彼は情報ファイナンスのためのネイティブチェーンであるIntuitionの創設者であり、次のインターネットのためにアイデンティティ、クレーム、評判を検証可能で monetizable なデータに変革しています。
AIの盲点:機械は真実とノイズを区別できない
最新のAIモデルがどれほど賢くなったかに驚かされますが、それが私たちに完全なナンセンスを自信満々に提示するまでです。この皮肉は見逃しがたいものです:AIシステムがより強力になるにつれて、事実とフィクションを区別する能力は必ずしも向上していません。ある意味では、悪化しています。
サマリー
OpenAI自身の調査結果を考慮してください:GPT-4のあるバージョン(コードネーム「o3」)は、同社の論文によると、ベンチマークテストで約33%の確率で幻覚的な回答をしました。その小型後継機(「o4-mini」)は、ほぼ半分の確率で脱線しました。最新のモデル、GPT-5はこの問題を解決することになっており、実際に幻覚を起こす確率がかなり少ない(~9%)であると主張しています。しかし、多くの経験豊富なユーザーは、実際にはGPT-5がより愚かであると感じています—遅く、ためらいがちで、依然としてしばしば間違っています(また、ベンチマークが私たちをどれほど進めるかの事実を示しています)。
NillionのCTO、ジョン・ウッズのフラストレーションは明白で、彼はChatGPTがGPT-5のリリース後「必須からゴミになった」と言いました。しかし現実は、より高度なモデルは真実とノイズの区別がますます悪くなるということです。すべてのモデルがそうです、GPTだけではありません。
なぜ、より高度なAIがその前のものよりも信頼性が低いと感じるのでしょうか?一つの理由は、これらのシステムはトレーニングデータの良さに依存しており、私たちがAIに与えているデータが根本的に欠陥があるからです。今日、このデータは主に、エンゲージメントが正確さを超える情報のパラダイムから来ており、中央集権的なゲートキーパーが利益を最大化するためにノイズをシグナルよりも増幅しています。したがって、データの問題をまず修正せずに真実のAIを期待するのは無知です。
AIは私たちの集合的な情報中毒を反映する
高品質なトレーニングデータは、私たちが作成するよりも早く消失しています。ここには再帰的な劣化ループが働いています:AIは主にウェブベースのデータを消化します;ウェブはますます誤解を招く、検証不可能なAIのゴミで汚染されています;合成データは次世代のモデルを訓練し、現実からさらに乖離させます。
悪いトレーニングセットよりも、私たちがオンラインで情報を整理し、検証する基本的なアーキテクチャに関する問題です。世界の人口の65%以上が、エンゲージメントを最大化するために設計されたソーシャルメディアプラットフォームで何時間も過ごしています。そのため、私たちは前例のない規模で、誤情報を意図せず報酬するアルゴリズムにさらされています。
虚偽のストーリーはより強い感情的反応を引き起こすため、訂正の主張よりも早く広まります。したがって、最もバイラルなコンテンツ、つまりAIのトレーニングパイプラインに取り込まれる可能性が最も高いコンテンツは、正確さよりもセンセーションに系統的に偏っています。
プラットフォームは真実ではなく、注目からも利益を得ています。データクリエイターは真実性ではなく、バイラリティに対して報酬を受け取ります。AI企業は事実の正確さではなく、ユーザーの満足度とエンゲージメントを最適化します。そして、チャットボットにとっての「成功」とは、ユーザーを引き込むようなもっともらしい応答を提供することです。
つまり、AIのデータ/信頼の危機は、私たちの集合的な人間意識の継続的な毒殺の延長に過ぎません。私たちはAIに自分たちが消費しているものを与えています。AIシステムは、私たち自身ができないため、真実とノイズを区別できません。
結局、真実は合意です。情報の流れを制御する者は、私たちが集団的に「真実」として認識する物語をも制御します。それが十分に繰り返されると。現在、大規模な企業のいくつかが真実の手綱を握っており、私たち個人ではありません。それは変わる可能性があります。変わらなければなりません。
真実のAIの出現はポジティブサムゲームである
これをどう修正しますか?私たちは情報エコシステム、そしてその延長としてAIを真実に向けて再調整するにはどうすればよいでしょうか?それは、真実がどのように創造され、維持されるかを再考することから始まります。
現状では、私たちはしばしば真実を、最も大きな声を持つ者や最高の権威によって決定されるゼロサムゲームとして扱います。情報はサイロ化され、厳しく管理されています。各プラットフォームや機関は、自身の現実のバージョンを押し出します。AI (や人間)がこれらのサイロの一つに閉じ込められると、狭く偏った世界観を持つことになります。これがエコーチェンバーを生み出し、人間とAIの両方が誤解される原因になります。
しかし、人生における多くの真実はバイナリーでゼロサムの命題ではありません。実際、多くの意味のある真実はポジティブサムです — それらは共存し、お互いを補完することができます。ニューヨークでの「最高の」レストランはどこですか?単一の正しい答えはなく、それがその美しさです:真実はあなたの好み、予算、気分によって異なります。私のお気に入りの曲はジャズのクラシックですが、それがあなたのお気に入りのポップアンセムを「真実」ではなくすることはありません。一人の理解の向上は、必ずしも他の人の損失を意味するわけではありません。私たちの視点は、お互いを無効にすることなく異なることができます。
これが、検証可能な帰属と評判の原則が非常に重要である理由です。真実は主張の内容だけではなく、それを行っている人物、彼らのインセンティブ、そして彼らの過去の実績がどのように維持されているかに関わっています。オンライン上のすべての主張が明確な著作権の連鎖と生きた評判スコアを伴っていれば、私たちはノイズを選別し、中央集権的なモデレーターに対するコントロールを手放さずに済むでしょう。虚偽の情報を広めようとする悪意のある行為者は、毎回の虚偽の主張によって彼らの評判が低下することを発見するでしょう。長い正確性の実績を持つ思慮深い貢献者は、彼らの評判と影響力が高まるのを見るでしょう。
暗号は、これを実現するための構成要素を提供します:分散型識別子、トークンキュレーションレジストリ、ステーキングメカニズム、そして正確性を経済的な価値に変えるインセンティブ構造。すべての声明が検証可能なアイデンティティに結びつき、すべての視点が評判スコアを持ち、すべての真実の主張が挑戦され、ステークされ、オープンなシステムで裁定される知識グラフを想像してください。その世界では、真実は単一のプラットフォームから与えられるのではなく、属性があり、評判に基づいた声のネットワークから有機的に生まれます。
そのようなシステムはインセンティブの風景をひっくり返します。コンテンツクリエイターが正確性を犠牲にしてバイラリティを追い求めるのではなく、彼らは自分の貢献の妥当性に基づいて、自分の評判 — そしてしばしば文字通りのトークン — を賭けることになります。AIが匿名のスロップで訓練されるのではなく、真実と信頼性が情報自体の構造に組み込まれた、帰属され、評判に基づいたデータで訓練されることになります。
この文脈でAIを考えてみましょう。評判を意識したグラフでトレーニングされたモデルは、はるかにクリーンな信号を受け取ります。それは単に最もバイラルな主張を繰り返すだけでなく、帰属や信頼性を考慮することを学びます。時間が経つにつれて、エージェント自身がこのシステムに参加し、自分の出力にステーキングし、自分の評判を築き、雄弁さだけでなく信頼性においても競争することができるでしょう。
それが、毒された情報のサイクルを打破し、ポジティブサムで分散型の真実のビジョンを反映するAIを構築する方法です。検証可能な帰属と分散型の評判がなければ、私たちは常に「真実」を中央集権的なプラットフォームにアウトソーシングすることになり、操作に対して常に脆弱なままでしょう。
彼らと共に、私たちはついにゼロサムの権威を超え、真実が動的に、強靭に、そして最も重要なことに、共に浮かび上がるシステムに向かうことができます。
ビリー・ルートケ
ビリー・ルエトケは、2012年のビットコインと2014年のイーサリアム以来、ブロックチェーンの最前線で活動してきました。彼はEYのブロックチェーンコンサルティングプラクティスの立ち上げに貢献し、ConsenSysでは5年以上にわたりR&D、デベロッパーリレーションズ、トークンエンジニアリング、分散型アイデンティティを通じてイーサリアムエコシステムの形成に携わりました。ビリーはまた、uPortのエンタープライズリードとして、EEAのデジタルアイデンティティワーキンググループの共同議長、分散型アイデンティティファウンデーションの創設メンバーとして自己主権的アイデンティティの先駆者としても貢献しました。今日、彼は情報ファイナンスのためのネイティブチェーンであるIntuitionの創設者であり、次のインターネットのためにアイデンティティ、クレーム、評判を検証可能で monetizable なデータに変革しています。