人工智能的盲點:機器無法分辨真相與噪音

我們驚嘆於最新的人工智能模型變得多麼智能——直到它們自信地向我們呈現出完全的胡說八道。這個諷刺是顯而易見的:隨着人工智能系統變得越來越強大,它們區分事實與虛構的能力並不一定在改善。在某些方面,它甚至在惡化。

總結

  • AI 反映了我們信息的缺陷。像 GPT-5 這樣的模型面臨困難,因爲訓練數據被以病毒式傳播和互動爲驅動的內容污染,這些內容優先考慮感官刺激而非準確性。
  • 事實不再是零和的。許多“真相”共存,但當前的平台集中信息流,造成回音室和偏見,滋養了人類和人工智能。
  • 去中心化歸因修復了循環。由加密原語驅動的聲譽和身分關聯繫統可以獎勵準確性,過濾噪聲,並在可驗證、可信的數據上訓練AI。

考慮OpenAI自己的研究發現:根據公司自己的論文,GPT-4的一個版本(代號爲“o3”)在基準測試中出現虛假答案的比例約爲33%。它的較小後繼(“o4-mini”)幾乎一半的時間都出錯。最新的模型GPT-5本應修復這一問題,並確實聲稱出現虛假答案的比例大大降低(~9%)。然而,許多經驗豐富的用戶發現GPT-5在實踐中更笨——更慢,更猶豫,仍然經常出錯(這也證明了基準測試只能幫助我們到達一定程度)。

Nillion首席技術官John Woods的沮喪表達得很明確,他表示ChatGPT在GPT-5發布後從‘必不可少’變成了‘垃圾’。然而現實是,越來越先進的模型在區分真相與噪音方面將變得越來越糟糕。所有模型都是如此,不僅僅是GPT。

爲什麼更先進的人工智能感覺比其前身更不可靠?一個原因是這些系統的好壞取決於它們的訓練數據,而我們提供給人工智能的數據在根本上是有缺陷的。如今,這些數據主要來自一個信息範式,在這個範式中,參與度勝過準確性,而中心化的守門人則放大噪音而非信號以最大化利潤。因此,期望在沒有先解決數據問題的情況下獲得真實的人工智能是幼稚的。

AI 鏡像我們的集體信息中毒

高質量的訓練數據消失得比我們創造的還要快。一個遞歸退化循環正在運作:人工智能主要消化基於網路的數據;網路變得越來越被誤導的、無法驗證的人工智能垃圾所污染;合成數據訓練下一代模型,使其與現實更加脫節。

比起糟糕的訓練集,更重要的是我們如何組織和驗證在線信息的基本架構。超過65%的人口在社交媒體平台上花費數小時,這些平台旨在最大化用戶的參與度。因此,我們以空前的規模接觸到無意中獎勵虛假信息的算法。

虛假的故事會引發更強烈的情感反應,因此它們傳播的速度比糾正性的說法更快。因此,最具病毒性的內容——即最有可能被AI訓練管道攝取的內容——系統性地偏向於感性而非準確性。

平台也從關注中獲利,而不是從真相中獲利。數據創作者因病毒式傳播而獲得獎勵,而不是因真實性。人工智能公司優化用戶滿意度和參與度,而不是事實準確性。而聊天機器人的“成功”在於讓用戶沉迷於聽起來合理的回應。

也就是說,人工智能的數據/信任危機實際上是我們集體人類意識持續被污染的延伸。我們正在向人工智能喂食我們自己所消費的內容。人工智能系統無法分辨真相與噪音,因爲我們自己也無法。

真相畢竟是共識。誰控制着信息流,誰就控制着我們共同認知爲“真相”的敘述,尤其是在這些敘述被重復足夠多次之後。而現在,一些大型企業掌握着真相的控制權,而不是我們個人。這種情況可以改變。它必須改變。

真實的人工智能的出現是一個正和遊戲

我們如何解決這個問題?我們如何重新調整我們的信息生態系統——並由此延伸到人工智能——以朝向真相?這始於重新構想真相是如何被創造和維護的。

在現狀中,我們常常將真相視爲由擁有最響亮聲音或最高權威的人決定的零和遊戲。信息被孤立和嚴格控制;每個平台或機構都推動其自身版本的現實。一個AI (或一個人)被困在這些孤島中,最終得到的是狹隘且有偏見的世界觀。這就是我們如何形成回音室,以及人類和AI如何被誤導。

但生活中的許多真相並不是二元的、零和的命題。事實上,大多數有意義的真相都是正和的——它們可以共存並相輔相成。在紐約,哪家餐廳是“最好”的?沒有單一的正確答案,這正是它的美妙之處:真相取決於你的口味、預算和心情。我的最愛歌曲,作爲一首爵士經典,並不意味着你的最愛流行頌歌對你來說就不再“真實”。一個人在理解上的收獲並不意味着另一個人的損失。我們的視角可以不同,而不必相互抵消。

這就是可驗證歸屬和聲譽原語如此重要的原因。真相不能僅僅關於聲明的內容——它必須與誰在發表聲明、他們的激勵是什麼以及他們的過去記錄如何匹配。如果每一個在線聲明都帶有明確的作者鏈和一個活躍的聲譽分數,我們就可以在不將控制權交給集中式審核員的情況下篩選噪聲。一個試圖傳播虛假信息的惡意行爲者會發現他們的聲譽在每一次虛假聲明中被降低。一個具有長期準確記錄的深思熟慮的貢獻者會看到他們的聲譽——和影響力——上升。

加密技術爲我們提供了構建這些系統的基礎:去中心化標識符、代幣策劃註冊、質押機制,以及將準確性轉化爲經濟利益的激勵結構。想象一個知識圖譜,在這個圖譜中,每一個陳述都與一個可驗證的身分相聯繫,每一個觀點都有一個聲譽分數,每一個真相聲明都可以在一個開放的系統中被質疑、被質押並被裁定。在那個世界裏,真相並不是從單一平台傳遞下來的——它是從一個有歸屬感、聲譽加權的聲音網路中有機產生的。

這樣的系統顛覆了激勵結構。內容創作者不再追求爲了流行而犧牲準確性,而是將他們的聲譽——通常還有實際的代幣——置於他們貢獻的有效性上。AI不再是在匿名的雜亂數據上進行訓練,而是在有歸屬和聲譽加權的數據上進行訓練,真相和可信度被融入信息本身的結構中。

現在考慮在這個背景下的人工智能。一個在這樣的聲譽意識圖譜上訓練的模型將會消耗更幹淨的信號。它不僅僅會重復最具病毒性的說法;它會學習考慮歸屬和可信度。隨着時間的推移,代理人本身可以參與到這個系統中——對他們的輸出進行質押,建立他們自己的聲譽,並不僅僅在口才上競爭,而是在可信度上競爭。

這就是我們如何打破被毒化信息的循環,並構建反映積極總和、去中心化真相願景的人工智能。沒有可驗證的歸屬和去中心化的聲譽,我們將始終被迫將“真相”外包給中心化平台,並且我們將始終容易受到操控。

有了它們,我們終於可以超越零和權威,朝着一個真相動態、韌性地浮現的系統邁進——最重要的是——一起邁進。

比利·盧德特克

比利·盧德克

比利·盧德克自2012年比特幣和2014年以太坊以來,一直在區塊鏈的前沿進行建設。他幫助啓動了安永的區塊鏈諮詢實踐,並在ConsenSys工作了超過五年,通過研發、開發者關係、代幣工程和去中心化身份等角色塑造以太坊生態系統。比利還作爲uPort的企業負責人、以太坊企業聯盟數字身份工作組的共同主席以及去中心化身份基金會的創始成員,幫助開創了自我主權身分。如今,他是Intuition的創始人,這是信息金融的本鏈,將身分、聲明和聲譽轉變爲可驗證的、可貨幣化的數據,爲下一個互聯網服務。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)