O ponto cego da IA: As máquinas não conseguem separar a verdade do ruído

Nós nos maravilhamos com quão inteligentes os mais recentes modelos de IA se tornaram — até que eles nos apresentam confiantemente um completo absurdo. A ironia é difícil de ignorar: à medida que os sistemas de IA se tornam mais poderosos, sua capacidade de distinguir fato de ficção não está necessariamente melhorando. De certas maneiras, está piorando.

Resumo

  • A IA reflete as nossas falhas de informação. Modelos como o GPT-5 enfrentam dificuldades porque os dados de treino estão poluídos com conteúdo viral, impulsionado pelo engajamento, que prioriza a sensação em detrimento da precisão.
  • A verdade já não é uma soma zero. Muitas “verdades” coexistem, mas as plataformas atuais centralizam o fluxo de informação, criando câmaras de eco e preconceitos que alimentam tanto os humanos como a IA.
  • A atribuição descentralizada corrige o ciclo. Sistemas ligados à reputação e à identidade, alimentados por primitivos cripto, podem recompensar a precisão, filtrar ruídos e treinar IA com dados verificáveis e confiáveis.

Considere as próprias descobertas da OpenAI: uma versão do GPT-4 (codename “o3”) alucina respostas cerca de 33% das vezes em testes de referência, de acordo com o próprio artigo da empresa. Seu sucessor menor (“o4-mini”) saiu dos trilhos quase metade das vezes. O modelo mais recente, GPT-5, deveria corrigir isso e de fato afirma alucinar muito menos (~9%). No entanto, muitos usuários experientes acham o GPT-5 mais burro na prática—mais lento, mais hesitante e ainda frequentemente errado (também evidenciando o fato de que os benchmarks só nos levam até certo ponto).

A frustração do CTO da Nillion, John Woods, foi explícita quando ele disse que o ChatGPT passou de ‘essencial a lixo’ após o lançamento do GPT-5. No entanto, a realidade é que os modelos mais avançados ficarão cada vez piores em distinguir a verdade do ruído. Todos eles, não apenas o GPT.

Por que uma IA mais avançada pareceria menos confiável do que suas predecessoras? Uma razão é que esses sistemas são tão bons quanto os dados de treinamento, e os dados que estamos fornecendo à IA são fundamentalmente falhos. Hoje, esses dados vêm em grande parte de um paradigma de informação onde o engajamento supera a precisão, enquanto os Gatekeepers centralizados amplificam o ruído em detrimento do sinal para maximizar lucros. Assim, é ingênuo esperar uma IA verdadeira sem antes resolver o problema dos dados.

A IA reflete a nossa intoxicação informativa coletiva

Dados de treino de alta qualidade estão a desaparecer mais rapidamente do que os criamos. Existe um ciclo de degradação recursiva em ação: a IA digere principalmente dados baseados na web; a web está a tornar-se cada vez mais poluída com lixo de IA enganoso e não verificável; dados sintéticos treinam a próxima geração de modelos para serem ainda mais desconectados da realidade.

Mais do que conjuntos de dados de treinamento ruins, trata-se da arquitetura fundamental de como organizamos e verificamos informações online. Mais de 65% da população mundial passa horas em plataformas de mídia social projetadas para maximizar o engajamento. Assim, estamos expostos, a uma escala sem precedentes, a algoritmos que inadvertidamente recompensam a desinformação.

Histórias falsas provocam respostas emocionais mais fortes, por isso se espalham mais rapidamente do que as alegações corretivas. Assim, o conteúdo mais viral — ou seja, aquele que tem mais probabilidade de ser absorvido por pipelines de treinamento de IA — é sistematicamente tendencioso em favor da sensação em vez da precisão.

As plataformas também lucram com a atenção, não com a verdade. Os criadores de dados são recompensados pela viralidade, não pela veracidade. As empresas de IA otimizam para a satisfação e o engajamento do usuário, não para a precisão factual. E o ‘sucesso’ para os chatbots é manter os usuários fascinados com respostas que parecem plausíveis.

Dito isso, a crise de dados/confiança da IA é realmente uma extensão da contínua contaminação da nossa consciência humana coletiva. Estamos alimentando a IA com o que estamos consumindo nós mesmos. Os sistemas de IA não conseguem distinguir a verdade do ruído, porque nós mesmos não conseguimos.

A verdade é, afinal, um consenso. Quem controla o fluxo de informação também controla as narrativas que percebemos coletivamente como ‘verdade’ depois de serem repetidas um número suficiente de vezes. E neste momento, um monte de grandes corporações detém as rédeas da verdade, não nós como indivíduos. Isso pode mudar. Isso deve.

A emergência da IA verdadeira é um jogo de soma positiva

Como consertamos isso? Como realinhamos nosso ecossistema de informações — e por extensão, a IA — em direção à verdade? Isso começa com a reimaginação de como a verdade é criada e mantida em primeiro lugar.

No status quo, muitas vezes tratamos a verdade como um jogo de soma zero decidido por quem tem a voz mais alta ou a maior autoridade. A informação é isolada e rigidamente controlada; cada plataforma ou instituição empurra sua própria versão da realidade. Uma IA ( ou uma pessoa) presa em um desses silos acaba com uma visão de mundo estreita e tendenciosa. É assim que obtemos câmaras de eco, e é assim que tanto humanos quanto IA acabam sendo enganados.

Mas muitas verdades na vida não são proposições binárias ou de soma zero. Na verdade, a maioria das verdades significativas é de soma positiva — elas podem coexistir e complementar-se. Qual é o melhor restaurante em Nova Iorque? Não há uma única resposta correta, e essa é a beleza disso: a verdade depende do seu gosto, do seu orçamento, do seu humor. Minha canção favorita, sendo um clássico do jazz, não torna seu hino pop favorito menos “verdadeiro” para você. O ganho de compreensão de uma pessoa não precisa significar a perda de outra. As nossas perspetivas podem diferir sem se anularem mutuamente.

É por isso que a atribuição verificável e os primitivos de reputação são tão críticos. A verdade não pode ser apenas sobre o conteúdo de uma alegação — tem que ser sobre quem a está fazendo, quais são os seus incentivos e como o seu histórico se sustenta. Se cada afirmação online tivesse consigo uma cadeia clara de autoria e uma pontuação de reputação viva, poderíamos filtrar o ruído sem ceder o controle a moderadores centralizados. Um agente de má-fé tentando espalhar desinformação veria sua reputação degradada a cada falsa alegação. Um colaborador reflexivo com um longo histórico de precisão veria sua reputação — e influência — aumentar.

A criptomoeda dá-nos os blocos de construção para fazer isto funcionar: identificadores descentralizados, registos curados por tokens, mecanismos de staking e estruturas de incentivos que transformam a precisão em um bem econômico. Imagine um grafo de conhecimento onde cada afirmação está ligada a uma identidade verificável, cada perspectiva tem uma pontuação de reputação e cada reivindicação de verdade pode ser contestada, apostada e adjudicada em um sistema aberto. Nesse mundo, a verdade não é imposta por uma única plataforma — ela emerge organicamente de uma rede de vozes atribuídas e ponderadas pela reputação.

Um sistema assim altera o panorama de incentivos. Em vez de os criadores de conteúdo perseguirem a viralidade à custa da precisão, eles estariam a apostar as suas reputações — e muitas vezes tokens literais — na validade das suas contribuições. Em vez de a IA ser treinada com dados anónimos e de baixa qualidade, seria treinada com dados atribuídos e ponderados pela reputação, onde a verdade e a confiabilidade estão integradas na própria essência da informação.

Agora considere a IA neste contexto. Um modelo treinado em um gráfico consciente da reputação consumiria um sinal muito mais limpo. Não apenas repetiria a afirmação mais viral; aprenderia a considerar a atribuição e a credibilidade. Com o tempo, os próprios agentes poderiam participar deste sistema — apostando em suas saídas, construindo suas próprias reputações e competindo não apenas em eloquência, mas em confiabilidade.

É assim que quebramos o ciclo de informação envenenada e construímos IA que reflete uma visão de verdade descentralizada e de soma positiva. Sem atribuição verificável e reputação descentralizada, estaremos sempre presos a terceirizar a “verdade” para plataformas centralizadas, e estaremos sempre vulneráveis à manipulação.

Com eles, podemos finalmente avançar além da autoridade de soma zero e rumo a um sistema onde a verdade emerge de forma dinâmica, resiliente e — mais importante — em conjunto.

Billy Luedtke

Billy Luedtke

Billy Luedtke tem trabalhado na vanguarda da blockchain desde o Bitcoin em 2012 e o Ethereum em 2014. Ele ajudou a lançar a prática de consultoria em blockchain da EY e passou mais de cinco anos na ConsenSys moldando o ecossistema Ethereum através de funções em P&D, Relações com Desenvolvedores, engenharia de tokens e identidade descentralizada. Billy também ajudou a pioneirar a identidade auto-soberana como Líder Empresarial na uPort, Co-Presidente do Grupo de Trabalho de Identidade Digital da EEA e membro fundador da Decentralized Identity Foundation. Hoje, ele é o fundador da Intuition, a cadeia nativa para Informação Financeira, transformando identidades, reivindicações e reputação em dados verificáveis e monetizáveis para a próxima internet.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)