Nós nos maravilhamos com quão inteligentes os mais recentes modelos de IA se tornaram — até que eles nos apresentam confiantemente um completo absurdo. A ironia é difícil de ignorar: à medida que os sistemas de IA se tornam mais poderosos, sua capacidade de distinguir fato de ficção não está necessariamente melhorando. De certas maneiras, está piorando.
Resumo
A IA reflete as nossas falhas de informação. Modelos como o GPT-5 enfrentam dificuldades porque os dados de treino estão poluídos com conteúdo viral, impulsionado pelo engajamento, que prioriza a sensação em detrimento da precisão.
A verdade já não é uma soma zero. Muitas “verdades” coexistem, mas as plataformas atuais centralizam o fluxo de informação, criando câmaras de eco e preconceitos que alimentam tanto os humanos como a IA.
A atribuição descentralizada corrige o ciclo. Sistemas ligados à reputação e à identidade, alimentados por primitivos cripto, podem recompensar a precisão, filtrar ruídos e treinar IA com dados verificáveis e confiáveis.
Considere as próprias descobertas da OpenAI: uma versão do GPT-4 (codename “o3”) alucina respostas cerca de 33% das vezes em testes de referência, de acordo com o próprio artigo da empresa. Seu sucessor menor (“o4-mini”) saiu dos trilhos quase metade das vezes. O modelo mais recente, GPT-5, deveria corrigir isso e de fato afirma alucinar muito menos (~9%). No entanto, muitos usuários experientes acham o GPT-5 mais burro na prática—mais lento, mais hesitante e ainda frequentemente errado (também evidenciando o fato de que os benchmarks só nos levam até certo ponto).
A frustração do CTO da Nillion, John Woods, foi explícita quando ele disse que o ChatGPT passou de ‘essencial a lixo’ após o lançamento do GPT-5. No entanto, a realidade é que os modelos mais avançados ficarão cada vez piores em distinguir a verdade do ruído. Todos eles, não apenas o GPT.
Por que uma IA mais avançada pareceria menos confiável do que suas predecessoras? Uma razão é que esses sistemas são tão bons quanto os dados de treinamento, e os dados que estamos fornecendo à IA são fundamentalmente falhos. Hoje, esses dados vêm em grande parte de um paradigma de informação onde o engajamento supera a precisão, enquanto os Gatekeepers centralizados amplificam o ruído em detrimento do sinal para maximizar lucros. Assim, é ingênuo esperar uma IA verdadeira sem antes resolver o problema dos dados.
A IA reflete a nossa intoxicação informativa coletiva
Dados de treino de alta qualidade estão a desaparecer mais rapidamente do que os criamos. Existe um ciclo de degradação recursiva em ação: a IA digere principalmente dados baseados na web; a web está a tornar-se cada vez mais poluída com lixo de IA enganoso e não verificável; dados sintéticos treinam a próxima geração de modelos para serem ainda mais desconectados da realidade.
Mais do que conjuntos de dados de treinamento ruins, trata-se da arquitetura fundamental de como organizamos e verificamos informações online. Mais de 65% da população mundial passa horas em plataformas de mídia social projetadas para maximizar o engajamento. Assim, estamos expostos, a uma escala sem precedentes, a algoritmos que inadvertidamente recompensam a desinformação.
Histórias falsas provocam respostas emocionais mais fortes, por isso se espalham mais rapidamente do que as alegações corretivas. Assim, o conteúdo mais viral — ou seja, aquele que tem mais probabilidade de ser absorvido por pipelines de treinamento de IA — é sistematicamente tendencioso em favor da sensação em vez da precisão.
As plataformas também lucram com a atenção, não com a verdade. Os criadores de dados são recompensados pela viralidade, não pela veracidade. As empresas de IA otimizam para a satisfação e o engajamento do usuário, não para a precisão factual. E o ‘sucesso’ para os chatbots é manter os usuários fascinados com respostas que parecem plausíveis.
Dito isso, a crise de dados/confiança da IA é realmente uma extensão da contínua contaminação da nossa consciência humana coletiva. Estamos alimentando a IA com o que estamos consumindo nós mesmos. Os sistemas de IA não conseguem distinguir a verdade do ruído, porque nós mesmos não conseguimos.
A verdade é, afinal, um consenso. Quem controla o fluxo de informação também controla as narrativas que percebemos coletivamente como ‘verdade’ depois de serem repetidas um número suficiente de vezes. E neste momento, um monte de grandes corporações detém as rédeas da verdade, não nós como indivíduos. Isso pode mudar. Isso deve.
A emergência da IA verdadeira é um jogo de soma positiva
Como consertamos isso? Como realinhamos nosso ecossistema de informações — e por extensão, a IA — em direção à verdade? Isso começa com a reimaginação de como a verdade é criada e mantida em primeiro lugar.
No status quo, muitas vezes tratamos a verdade como um jogo de soma zero decidido por quem tem a voz mais alta ou a maior autoridade. A informação é isolada e rigidamente controlada; cada plataforma ou instituição empurra sua própria versão da realidade. Uma IA ( ou uma pessoa) presa em um desses silos acaba com uma visão de mundo estreita e tendenciosa. É assim que obtemos câmaras de eco, e é assim que tanto humanos quanto IA acabam sendo enganados.
Mas muitas verdades na vida não são proposições binárias ou de soma zero. Na verdade, a maioria das verdades significativas é de soma positiva — elas podem coexistir e complementar-se. Qual é o melhor restaurante em Nova Iorque? Não há uma única resposta correta, e essa é a beleza disso: a verdade depende do seu gosto, do seu orçamento, do seu humor. Minha canção favorita, sendo um clássico do jazz, não torna seu hino pop favorito menos “verdadeiro” para você. O ganho de compreensão de uma pessoa não precisa significar a perda de outra. As nossas perspetivas podem diferir sem se anularem mutuamente.
É por isso que a atribuição verificável e os primitivos de reputação são tão críticos. A verdade não pode ser apenas sobre o conteúdo de uma alegação — tem que ser sobre quem a está fazendo, quais são os seus incentivos e como o seu histórico se sustenta. Se cada afirmação online tivesse consigo uma cadeia clara de autoria e uma pontuação de reputação viva, poderíamos filtrar o ruído sem ceder o controle a moderadores centralizados. Um agente de má-fé tentando espalhar desinformação veria sua reputação degradada a cada falsa alegação. Um colaborador reflexivo com um longo histórico de precisão veria sua reputação — e influência — aumentar.
A criptomoeda dá-nos os blocos de construção para fazer isto funcionar: identificadores descentralizados, registos curados por tokens, mecanismos de staking e estruturas de incentivos que transformam a precisão em um bem econômico. Imagine um grafo de conhecimento onde cada afirmação está ligada a uma identidade verificável, cada perspectiva tem uma pontuação de reputação e cada reivindicação de verdade pode ser contestada, apostada e adjudicada em um sistema aberto. Nesse mundo, a verdade não é imposta por uma única plataforma — ela emerge organicamente de uma rede de vozes atribuídas e ponderadas pela reputação.
Um sistema assim altera o panorama de incentivos. Em vez de os criadores de conteúdo perseguirem a viralidade à custa da precisão, eles estariam a apostar as suas reputações — e muitas vezes tokens literais — na validade das suas contribuições. Em vez de a IA ser treinada com dados anónimos e de baixa qualidade, seria treinada com dados atribuídos e ponderados pela reputação, onde a verdade e a confiabilidade estão integradas na própria essência da informação.
Agora considere a IA neste contexto. Um modelo treinado em um gráfico consciente da reputação consumiria um sinal muito mais limpo. Não apenas repetiria a afirmação mais viral; aprenderia a considerar a atribuição e a credibilidade. Com o tempo, os próprios agentes poderiam participar deste sistema — apostando em suas saídas, construindo suas próprias reputações e competindo não apenas em eloquência, mas em confiabilidade.
É assim que quebramos o ciclo de informação envenenada e construímos IA que reflete uma visão de verdade descentralizada e de soma positiva. Sem atribuição verificável e reputação descentralizada, estaremos sempre presos a terceirizar a “verdade” para plataformas centralizadas, e estaremos sempre vulneráveis à manipulação.
Com eles, podemos finalmente avançar além da autoridade de soma zero e rumo a um sistema onde a verdade emerge de forma dinâmica, resiliente e — mais importante — em conjunto.
Billy Luedtke
Billy Luedtke tem trabalhado na vanguarda da blockchain desde o Bitcoin em 2012 e o Ethereum em 2014. Ele ajudou a lançar a prática de consultoria em blockchain da EY e passou mais de cinco anos na ConsenSys moldando o ecossistema Ethereum através de funções em P&D, Relações com Desenvolvedores, engenharia de tokens e identidade descentralizada. Billy também ajudou a pioneirar a identidade auto-soberana como Líder Empresarial na uPort, Co-Presidente do Grupo de Trabalho de Identidade Digital da EEA e membro fundador da Decentralized Identity Foundation. Hoje, ele é o fundador da Intuition, a cadeia nativa para Informação Financeira, transformando identidades, reivindicações e reputação em dados verificáveis e monetizáveis para a próxima internet.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
O ponto cego da IA: As máquinas não conseguem separar a verdade do ruído
Nós nos maravilhamos com quão inteligentes os mais recentes modelos de IA se tornaram — até que eles nos apresentam confiantemente um completo absurdo. A ironia é difícil de ignorar: à medida que os sistemas de IA se tornam mais poderosos, sua capacidade de distinguir fato de ficção não está necessariamente melhorando. De certas maneiras, está piorando.
Resumo
Considere as próprias descobertas da OpenAI: uma versão do GPT-4 (codename “o3”) alucina respostas cerca de 33% das vezes em testes de referência, de acordo com o próprio artigo da empresa. Seu sucessor menor (“o4-mini”) saiu dos trilhos quase metade das vezes. O modelo mais recente, GPT-5, deveria corrigir isso e de fato afirma alucinar muito menos (~9%). No entanto, muitos usuários experientes acham o GPT-5 mais burro na prática—mais lento, mais hesitante e ainda frequentemente errado (também evidenciando o fato de que os benchmarks só nos levam até certo ponto).
A frustração do CTO da Nillion, John Woods, foi explícita quando ele disse que o ChatGPT passou de ‘essencial a lixo’ após o lançamento do GPT-5. No entanto, a realidade é que os modelos mais avançados ficarão cada vez piores em distinguir a verdade do ruído. Todos eles, não apenas o GPT.
Por que uma IA mais avançada pareceria menos confiável do que suas predecessoras? Uma razão é que esses sistemas são tão bons quanto os dados de treinamento, e os dados que estamos fornecendo à IA são fundamentalmente falhos. Hoje, esses dados vêm em grande parte de um paradigma de informação onde o engajamento supera a precisão, enquanto os Gatekeepers centralizados amplificam o ruído em detrimento do sinal para maximizar lucros. Assim, é ingênuo esperar uma IA verdadeira sem antes resolver o problema dos dados.
A IA reflete a nossa intoxicação informativa coletiva
Dados de treino de alta qualidade estão a desaparecer mais rapidamente do que os criamos. Existe um ciclo de degradação recursiva em ação: a IA digere principalmente dados baseados na web; a web está a tornar-se cada vez mais poluída com lixo de IA enganoso e não verificável; dados sintéticos treinam a próxima geração de modelos para serem ainda mais desconectados da realidade.
Mais do que conjuntos de dados de treinamento ruins, trata-se da arquitetura fundamental de como organizamos e verificamos informações online. Mais de 65% da população mundial passa horas em plataformas de mídia social projetadas para maximizar o engajamento. Assim, estamos expostos, a uma escala sem precedentes, a algoritmos que inadvertidamente recompensam a desinformação.
Histórias falsas provocam respostas emocionais mais fortes, por isso se espalham mais rapidamente do que as alegações corretivas. Assim, o conteúdo mais viral — ou seja, aquele que tem mais probabilidade de ser absorvido por pipelines de treinamento de IA — é sistematicamente tendencioso em favor da sensação em vez da precisão.
As plataformas também lucram com a atenção, não com a verdade. Os criadores de dados são recompensados pela viralidade, não pela veracidade. As empresas de IA otimizam para a satisfação e o engajamento do usuário, não para a precisão factual. E o ‘sucesso’ para os chatbots é manter os usuários fascinados com respostas que parecem plausíveis.
Dito isso, a crise de dados/confiança da IA é realmente uma extensão da contínua contaminação da nossa consciência humana coletiva. Estamos alimentando a IA com o que estamos consumindo nós mesmos. Os sistemas de IA não conseguem distinguir a verdade do ruído, porque nós mesmos não conseguimos.
A verdade é, afinal, um consenso. Quem controla o fluxo de informação também controla as narrativas que percebemos coletivamente como ‘verdade’ depois de serem repetidas um número suficiente de vezes. E neste momento, um monte de grandes corporações detém as rédeas da verdade, não nós como indivíduos. Isso pode mudar. Isso deve.
A emergência da IA verdadeira é um jogo de soma positiva
Como consertamos isso? Como realinhamos nosso ecossistema de informações — e por extensão, a IA — em direção à verdade? Isso começa com a reimaginação de como a verdade é criada e mantida em primeiro lugar.
No status quo, muitas vezes tratamos a verdade como um jogo de soma zero decidido por quem tem a voz mais alta ou a maior autoridade. A informação é isolada e rigidamente controlada; cada plataforma ou instituição empurra sua própria versão da realidade. Uma IA ( ou uma pessoa) presa em um desses silos acaba com uma visão de mundo estreita e tendenciosa. É assim que obtemos câmaras de eco, e é assim que tanto humanos quanto IA acabam sendo enganados.
Mas muitas verdades na vida não são proposições binárias ou de soma zero. Na verdade, a maioria das verdades significativas é de soma positiva — elas podem coexistir e complementar-se. Qual é o melhor restaurante em Nova Iorque? Não há uma única resposta correta, e essa é a beleza disso: a verdade depende do seu gosto, do seu orçamento, do seu humor. Minha canção favorita, sendo um clássico do jazz, não torna seu hino pop favorito menos “verdadeiro” para você. O ganho de compreensão de uma pessoa não precisa significar a perda de outra. As nossas perspetivas podem diferir sem se anularem mutuamente.
É por isso que a atribuição verificável e os primitivos de reputação são tão críticos. A verdade não pode ser apenas sobre o conteúdo de uma alegação — tem que ser sobre quem a está fazendo, quais são os seus incentivos e como o seu histórico se sustenta. Se cada afirmação online tivesse consigo uma cadeia clara de autoria e uma pontuação de reputação viva, poderíamos filtrar o ruído sem ceder o controle a moderadores centralizados. Um agente de má-fé tentando espalhar desinformação veria sua reputação degradada a cada falsa alegação. Um colaborador reflexivo com um longo histórico de precisão veria sua reputação — e influência — aumentar.
A criptomoeda dá-nos os blocos de construção para fazer isto funcionar: identificadores descentralizados, registos curados por tokens, mecanismos de staking e estruturas de incentivos que transformam a precisão em um bem econômico. Imagine um grafo de conhecimento onde cada afirmação está ligada a uma identidade verificável, cada perspectiva tem uma pontuação de reputação e cada reivindicação de verdade pode ser contestada, apostada e adjudicada em um sistema aberto. Nesse mundo, a verdade não é imposta por uma única plataforma — ela emerge organicamente de uma rede de vozes atribuídas e ponderadas pela reputação.
Um sistema assim altera o panorama de incentivos. Em vez de os criadores de conteúdo perseguirem a viralidade à custa da precisão, eles estariam a apostar as suas reputações — e muitas vezes tokens literais — na validade das suas contribuições. Em vez de a IA ser treinada com dados anónimos e de baixa qualidade, seria treinada com dados atribuídos e ponderados pela reputação, onde a verdade e a confiabilidade estão integradas na própria essência da informação.
Agora considere a IA neste contexto. Um modelo treinado em um gráfico consciente da reputação consumiria um sinal muito mais limpo. Não apenas repetiria a afirmação mais viral; aprenderia a considerar a atribuição e a credibilidade. Com o tempo, os próprios agentes poderiam participar deste sistema — apostando em suas saídas, construindo suas próprias reputações e competindo não apenas em eloquência, mas em confiabilidade.
É assim que quebramos o ciclo de informação envenenada e construímos IA que reflete uma visão de verdade descentralizada e de soma positiva. Sem atribuição verificável e reputação descentralizada, estaremos sempre presos a terceirizar a “verdade” para plataformas centralizadas, e estaremos sempre vulneráveis à manipulação.
Com eles, podemos finalmente avançar além da autoridade de soma zero e rumo a um sistema onde a verdade emerge de forma dinâmica, resiliente e — mais importante — em conjunto.
Billy Luedtke
Billy Luedtke tem trabalhado na vanguarda da blockchain desde o Bitcoin em 2012 e o Ethereum em 2014. Ele ajudou a lançar a prática de consultoria em blockchain da EY e passou mais de cinco anos na ConsenSys moldando o ecossistema Ethereum através de funções em P&D, Relações com Desenvolvedores, engenharia de tokens e identidade descentralizada. Billy também ajudou a pioneirar a identidade auto-soberana como Líder Empresarial na uPort, Co-Presidente do Grupo de Trabalho de Identidade Digital da EEA e membro fundador da Decentralized Identity Foundation. Hoje, ele é o fundador da Intuition, a cadeia nativa para Informação Financeira, transformando identidades, reivindicações e reputação em dados verificáveis e monetizáveis para a próxima internet.