Gate 广场「创作者认证激励计划」开启:入驻广场,瓜分每月 $10,000 创作奖励! 
无论你是广场内容达人,还是来自其他平台的优质创作者,只要积极创作,就有机会赢取豪华代币奖池、Gate 精美周边、流量曝光等超 $10,000+ 丰厚奖励! 
参与资格: 
满足以下任一条件即可报名👇 
1️⃣ 其他平台已认证创作者 
2️⃣ 单一平台粉丝 ≥ 1000(不可多平台叠加) 
3️⃣ Gate 广场内符合粉丝与互动条件的认证创作者 
立即填写表单报名 👉 https://www.gate.com/questionnaire/7159 
✍️ 丰厚创作奖励等你拿: 
🎁 奖励一:新入驻创作者专属 $5,000 奖池 
成功入驻即可获认证徽章。 
首月发首帖(≥ 50 字或图文帖)即可得 $50 仓位体验券(限前100名)。 
🎁 奖励二:专属创作者月度奖池 $1,500 USDT 
每月发 ≥ 30 篇原创优质内容,根据发帖量、活跃天数、互动量、内容质量综合评分瓜分奖励。 
🎁 奖励三:连续活跃创作福利 
连续 3 个月活跃(每月 ≥ 30 篇内容)可获 Gate 精美周边礼包! 
🎁 奖励四:专属推广名额 
认证创作者每月可优先获得 1 次官方项目合作推广机会。 
🎁 奖励五:Gate 广场四千万级流量曝光 
【推荐关注】资源位、“优质认证创作者榜”展示、每周精选内容推荐及额外精选帖激励,多重曝光助你轻
人工智能的盲点:机器无法分辨真相与噪音
我们惊叹于最新的人工智能模型变得多么智能——直到它们自信地向我们呈现出完全的胡说八道。这个讽刺是显而易见的:随着人工智能系统变得越来越强大,它们区分事实与虚构的能力并不一定在改善。在某些方面,它甚至在恶化。
总结
考虑OpenAI自己的研究发现:根据公司自己的论文,GPT-4的一个版本(代号为“o3”)在基准测试中出现虚假答案的比例约为33%。它的较小后继(“o4-mini”)几乎一半的时间都出错。最新的模型GPT-5本应修复这一问题,并确实声称出现虚假答案的比例大大降低(~9%)。然而,许多经验丰富的用户发现GPT-5在实践中更笨——更慢,更犹豫,仍然经常出错(这也证明了基准测试只能帮助我们到达一定程度)。
Nillion首席技术官John Woods的沮丧表达得很明确,他表示ChatGPT在GPT-5发布后从‘必不可少’变成了‘垃圾’。然而现实是,越来越先进的模型在区分真相与噪音方面将变得越来越糟糕。所有模型都是如此,不仅仅是GPT。
为什么更先进的人工智能感觉比其前身更不可靠?一个原因是这些系统的好坏取决于它们的训练数据,而我们提供给人工智能的数据在根本上是有缺陷的。如今,这些数据主要来自一个信息范式,在这个范式中,参与度胜过准确性,而中心化的守门人则放大噪音而非信号以最大化利润。因此,期望在没有先解决数据问题的情况下获得真实的人工智能是幼稚的。
AI 镜像我们的集体信息中毒
高质量的训练数据消失得比我们创造的还要快。一个递归退化循环正在运作:人工智能主要消化基于网络的数据;网络变得越来越被误导的、无法验证的人工智能垃圾所污染;合成数据训练下一代模型,使其与现实更加脱节。
比起糟糕的训练集,更重要的是我们如何组织和验证在线信息的基本架构。超过65%的人口在社交媒体平台上花费数小时,这些平台旨在最大化用户的参与度。因此,我们以空前的规模接触到无意中奖励虚假信息的算法。
虚假的故事会引发更强烈的情感反应,因此它们传播的速度比纠正性的说法更快。因此,最具病毒性的内容——即最有可能被AI训练管道摄取的内容——系统性地偏向于感性而非准确性。
平台也从关注中获利,而不是从真相中获利。数据创作者因病毒式传播而获得奖励,而不是因真实性。人工智能公司优化用户满意度和参与度,而不是事实准确性。而聊天机器人的“成功”在于让用户沉迷于听起来合理的回应。
也就是说,人工智能的数据/信任危机实际上是我们集体人类意识持续被污染的延伸。我们正在向人工智能喂食我们自己所消费的内容。人工智能系统无法分辨真相与噪音,因为我们自己也无法。
真相毕竟是共识。谁控制着信息流,谁就控制着我们共同认知为“真相”的叙述,尤其是在这些叙述被重复足够多次之后。而现在,一些大型企业掌握着真相的控制权,而不是我们个人。这种情况可以改变。它必须改变。
真实的人工智能的出现是一个正和游戏
我们如何解决这个问题?我们如何重新调整我们的信息生态系统——并由此延伸到人工智能——以朝向真相?这始于重新构想真相是如何被创造和维护的。
在现状中,我们常常将真相视为由拥有最响亮声音或最高权威的人决定的零和游戏。信息被孤立和严格控制;每个平台或机构都推动其自身版本的现实。一个AI (或一个人)被困在这些孤岛中,最终得到的是狭隘且有偏见的世界观。这就是我们如何形成回音室,以及人类和AI如何被误导。
但生活中的许多真相并不是二元的、零和的命题。事实上,大多数有意义的真相都是正和的——它们可以共存并相辅相成。在纽约,哪家餐厅是“最好”的?没有单一的正确答案,这正是它的美妙之处:真相取决于你的口味、预算和心情。我的最爱歌曲,作为一首爵士经典,并不意味着你的最爱流行颂歌对你来说就不再“真实”。一个人在理解上的收获并不意味着另一个人的损失。我们的视角可以不同,而不必相互抵消。
这就是可验证归属和声誉原语如此重要的原因。真相不能仅仅关于声明的内容——它必须与谁在发表声明、他们的激励是什么以及他们的过去记录如何匹配。如果每一个在线声明都带有明确的作者链和一个活跃的声誉分数,我们就可以在不将控制权交给集中式审核员的情况下筛选噪声。一个试图传播虚假信息的恶意行为者会发现他们的声誉在每一次虚假声明中被降低。一个具有长期准确记录的深思熟虑的贡献者会看到他们的声誉——和影响力——上升。
加密技术为我们提供了构建这些系统的基础:去中心化标识符、代币策划注册、质押机制,以及将准确性转化为经济利益的激励结构。想象一个知识图谱,在这个图谱中,每一个陈述都与一个可验证的身份相联系,每一个观点都有一个声誉分数,每一个真相声明都可以在一个开放的系统中被质疑、被质押并被裁定。在那个世界里,真相并不是从单一平台传递下来的——它是从一个有归属感、声誉加权的声音网络中有机产生的。
这样的系统颠覆了激励结构。内容创作者不再追求为了流行而牺牲准确性,而是将他们的声誉——通常还有实际的代币——置于他们贡献的有效性上。AI不再是在匿名的杂乱数据上进行训练,而是在有归属和声誉加权的数据上进行训练,真相和可信度被融入信息本身的结构中。
现在考虑在这个背景下的人工智能。一个在这样的声誉意识图谱上训练的模型将会消耗更干净的信号。它不仅仅会重复最具病毒性的说法;它会学习考虑归属和可信度。随着时间的推移,代理人本身可以参与到这个系统中——对他们的输出进行质押,建立他们自己的声誉,并不仅仅在口才上竞争,而是在可信度上竞争。
这就是我们如何打破被毒化信息的循环,并构建反映积极总和、去中心化真相愿景的人工智能。没有可验证的归属和去中心化的声誉,我们将始终被迫将“真相”外包给中心化平台,并且我们将始终容易受到操控。
有了它们,我们终于可以超越零和权威,朝着一个真相动态、韧性地浮现的系统迈进——最重要的是——一起迈进。
比利·卢德克
比利·卢德克自2012年比特币和2014年以太坊以来,一直在区块链的前沿进行建设。他帮助启动了安永的区块链咨询实践,并在ConsenSys工作了超过五年,通过研发、开发者关系、代币工程和去中心化身份等角色塑造以太坊生态系统。比利还作为uPort的企业负责人、以太坊企业联盟数字身份工作组的共同主席以及去中心化身份基金会的创始成员,帮助开创了自我主权身份。如今,他是Intuition的创始人,这是信息金融的本链,将身份、声明和声誉转变为可验证的、可货币化的数据,为下一个互联网服务。