Nos maravillamos de lo inteligentes que se han vuelto los últimos modelos de IA, hasta que nos presentan con total confianza un completo sinsentido. La ironía es difícil de pasar por alto: a medida que los sistemas de IA se vuelven más poderosos, su capacidad para distinguir entre la realidad y la ficción no necesariamente está mejorando. En algunos aspectos, está empeorando.
Resumen
La IA refleja nuestras fallas informativas. Modelos como GPT-5 tienen dificultades porque los datos de entrenamiento están contaminados con contenido viral impulsado por el engagement que prioriza la sensación sobre la precisión.
La verdad ya no es de suma cero. Muchas “verdades” coexisten, pero las plataformas actuales centralizan el flujo de información, creando cámaras de eco y sesgos que alimentan tanto a los humanos como a la IA.
La atribución descentralizada soluciona el ciclo. Los sistemas vinculados a la reputación y la identidad, impulsados por primitivos criptográficos, pueden recompensar la precisión, filtrar el ruido y entrenar a la IA con datos verificables y confiables.
Considere los propios hallazgos de OpenAI: una versión de GPT-4 (codenominada “o3”) alucinó respuestas alrededor del 33% de las veces en pruebas de referencia, según el propio documento de la empresa. Su sucesor más pequeño (“o4-mini”) se desvió del camino casi la mitad del tiempo. El modelo más nuevo, GPT-5, se suponía que solucionaría esto y, de hecho, afirma alucinar mucho menos (~9%). Sin embargo, muchos usuarios experimentados encuentran que GPT-5 es más tonto en la práctica—más lento, más dudoso y aún a menudo incorrecto (también evidenciando el hecho de que las pruebas de referencia solo nos llevan hasta cierto punto).
La frustración del CTO de Nillion, John Woods, fue explícita cuando dijo que ChatGPT pasó de ser ‘esencial a basura’ después del lanzamiento de GPT-5. Sin embargo, la realidad es que los modelos más avanzados serán cada vez peores para distinguir la verdad del ruido. Todos ellos, no solo GPT.
¿Por qué una IA más avanzada se sentiría menos confiable que sus predecesoras? Una razón es que estos sistemas son tan buenos como sus datos de entrenamiento, y los datos que le damos a la IA son fundamentalmente defectuosos. Hoy en día, estos datos provienen en gran medida de un paradigma de información donde el compromiso supera la precisión, mientras que los Guardianes centralizados amplifican el ruido sobre la señal para maximizar las ganancias. Por lo tanto, es ingenuo esperar una IA veraz sin primero solucionar el problema de los datos.
La IA refleja nuestra intoxicación colectiva de información
Los datos de entrenamiento de alta calidad están desapareciendo más rápido de lo que los creamos. Hay un bucle de degradación recursiva en funcionamiento: la IA digiere principalmente datos basados en la web; la web se está volviendo cada vez más contaminada con desechos engañosos y no verificables de IA; los datos sintéticos entrenan a la próxima generación de modelos para estar aún más desconectados de la realidad.
Más que conjuntos de entrenamiento deficientes, se trata de la arquitectura fundamental de cómo organizamos y verificamos la información en línea. Más del 65% de la población mundial pasa horas en plataformas de redes sociales diseñadas para maximizar la participación. Así, estamos expuestos, a una escala sin precedentes, a algoritmos que inadvertidamente recompensan la desinformación.
Las historias falsas provocan respuestas emocionales más fuertes, por lo que se difunden más rápido que las afirmaciones correctivas. Así, el contenido más viral —es decir, el que es más probable que sea ingerido por los pipelines de entrenamiento de IA— está sistemáticamente sesgado hacia la sensación en lugar de la precisión.
Las plataformas también obtienen beneficios de la atención, no de la verdad. Los creadores de datos son recompensados por la viralidad, no por la veracidad. Las empresas de IA optimizan para la satisfacción y el compromiso del usuario, no para la precisión factual. Y el ‘éxito’ para los chatbots es mantener a los usuarios enganchados con respuestas que suenan plausibles.
Dicho esto, la crisis de datos/confianza de la IA es realmente una extensión de la continua contaminación de nuestra conciencia humana colectiva. Estamos alimentando a la IA con lo que consumimos nosotros mismos. Los sistemas de IA no pueden distinguir la verdad del ruido, porque nosotros mismos no podemos.
La verdad es consenso después de todo. Quien controla el flujo de información también controla las narrativas que colectivamente percibimos como 'verdad' después de que se repiten suficientes veces. Y en este momento, un montón de enormes corporaciones tienen las riendas de la verdad, no nosotros como individuos. Eso puede cambiar. Debe.
La aparición de la IA veraz es un juego de suma positiva
¿Cómo solucionamos esto? ¿Cómo realineamos nuestro ecosistema de información — y por extensión, la IA — hacia la verdad? Comienza con reimaginar cómo se crea y se mantiene la verdad en primer lugar.
En el estado actual, a menudo tratamos la verdad como un juego de suma cero decidido por quien tenga la voz más fuerte o la autoridad más alta. La información está aislada y controlada de forma estricta; cada plataforma o institución impulsa su propia versión de la realidad. Un AI ( o una persona ) atrapada en uno de estos silos termina con una visión del mundo estrecha y sesgada. Así es como obtenemos cámaras de eco, y así es como tanto humanos como AI terminan siendo engañados.
Pero muchas verdades en la vida no son proposiciones binarias de suma cero. De hecho, la mayoría de las verdades significativas son de suma positiva: pueden coexistir y complementarse entre sí. ¿Cuál es el “mejor” restaurante en Nueva York? No hay una sola respuesta correcta, y esa es la belleza de ello: la verdad depende de tu gusto, tu presupuesto, tu estado de ánimo. Mi canción favorita, siendo un clásico de jazz, no hace que tu himno pop favorito sea menos “verdadero” para ti. La ganancia de una persona en comprensión no tiene que significar la pérdida de otra. Nuestras perspectivas pueden diferir sin anularse mutuamente.
Por eso es tan crítico contar con atribuciones verificables y primitivas de reputación. La verdad no puede ser solo sobre el contenido de una afirmación, tiene que ver con quién la hace, cuáles son sus incentivos y cómo se sostiene su historial pasado. Si cada afirmación en línea llevara consigo una cadena clara de autoría y un puntaje de reputación vigente, podríamos filtrar el ruido sin ceder el control a moderadores centralizados. Un actor de mala fe que intente difundir desinformación vería su reputación degradada con cada afirmación falsa. Un contribuyente reflexivo con un largo historial de precisión vería su reputación — y su influencia — aumentar.
Las criptomonedas nos dan los bloques de construcción para que esto funcione: identificadores descentralizados, registros curados por tokens, mecanismos de staking y estructuras de incentivos que convierten la precisión en un bien económico. Imagina un grafo de conocimiento donde cada declaración está vinculada a una identidad verificable, cada perspectiva lleva una puntuación de reputación y cada afirmación de verdad puede ser desafiada, apostada y adjudicada en un sistema abierto. En ese mundo, la verdad no se impone desde una única plataforma, sino que emerge orgánicamente de una red de voces atribuidas y ponderadas por reputación.
Tal sistema cambia el panorama de incentivos. En lugar de que los creadores de contenido persigan la viralidad a expensas de la precisión, estarían apostando sus reputaciones —y a menudo tokens literales— sobre la validez de sus contribuciones. En lugar de que la IA se entrene con datos anónimos, se entrenaría con datos atribuidos y ponderados por reputación donde la verdad y la confiabilidad están integradas en la propia estructura de la información.
Ahora considere la IA en este contexto. Un modelo entrenado en un gráfico consciente de la reputación consumiría una señal mucho más limpia. No solo repetiría la afirmación más viral; aprendería a tener en cuenta la atribución y la credibilidad. Con el tiempo, los agentes mismos podrían participar en este sistema — apostando por sus resultados, construyendo sus propias reputaciones y compitiendo no solo en elocuencia, sino en confiabilidad.
Así es como rompemos el ciclo de información envenenada y construimos IA que refleja una visión de verdad de suma positiva y descentralizada. Sin atribución verificable y reputación descentralizada, siempre estaremos condenados a externalizar la “verdad” a plataformas centralizadas, y siempre seremos vulnerables a la manipulación.
Con ellos, finalmente podemos avanzar más allá de la autoridad de suma cero y hacia un sistema donde la verdad emerge de manera dinámica, resiliente y, lo más importante, juntos.
Billy Luedtke
Billy Luedtke ha estado construyendo en la frontera de la blockchain desde Bitcoin en 2012 y Ethereum en 2014. Ayudó a lanzar la práctica de consultoría en blockchain de EY y pasó más de cinco años en ConsenSys modelando el ecosistema de Ethereum a través de roles en I+D, Relaciones con Desarrolladores, ingeniería de tokens e identidad descentralizada. Billy también ayudó a pionear la identidad autosoberana como Líder Empresarial en uPort, Co-Presidente del Grupo de Trabajo de Identidad Digital de la EEA y miembro fundador de la Fundación de Identidad Descentralizada. Hoy, es el fundador de Intuition, la cadena nativa para Información Financiera, transformando identidades, reclamos y reputación en datos verificables y monetizables para el próximo internet.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
El punto ciego de la IA: Las máquinas no pueden separar la verdad del ruido
Nos maravillamos de lo inteligentes que se han vuelto los últimos modelos de IA, hasta que nos presentan con total confianza un completo sinsentido. La ironía es difícil de pasar por alto: a medida que los sistemas de IA se vuelven más poderosos, su capacidad para distinguir entre la realidad y la ficción no necesariamente está mejorando. En algunos aspectos, está empeorando.
Resumen
Considere los propios hallazgos de OpenAI: una versión de GPT-4 (codenominada “o3”) alucinó respuestas alrededor del 33% de las veces en pruebas de referencia, según el propio documento de la empresa. Su sucesor más pequeño (“o4-mini”) se desvió del camino casi la mitad del tiempo. El modelo más nuevo, GPT-5, se suponía que solucionaría esto y, de hecho, afirma alucinar mucho menos (~9%). Sin embargo, muchos usuarios experimentados encuentran que GPT-5 es más tonto en la práctica—más lento, más dudoso y aún a menudo incorrecto (también evidenciando el hecho de que las pruebas de referencia solo nos llevan hasta cierto punto).
La frustración del CTO de Nillion, John Woods, fue explícita cuando dijo que ChatGPT pasó de ser ‘esencial a basura’ después del lanzamiento de GPT-5. Sin embargo, la realidad es que los modelos más avanzados serán cada vez peores para distinguir la verdad del ruido. Todos ellos, no solo GPT.
¿Por qué una IA más avanzada se sentiría menos confiable que sus predecesoras? Una razón es que estos sistemas son tan buenos como sus datos de entrenamiento, y los datos que le damos a la IA son fundamentalmente defectuosos. Hoy en día, estos datos provienen en gran medida de un paradigma de información donde el compromiso supera la precisión, mientras que los Guardianes centralizados amplifican el ruido sobre la señal para maximizar las ganancias. Por lo tanto, es ingenuo esperar una IA veraz sin primero solucionar el problema de los datos.
La IA refleja nuestra intoxicación colectiva de información
Los datos de entrenamiento de alta calidad están desapareciendo más rápido de lo que los creamos. Hay un bucle de degradación recursiva en funcionamiento: la IA digiere principalmente datos basados en la web; la web se está volviendo cada vez más contaminada con desechos engañosos y no verificables de IA; los datos sintéticos entrenan a la próxima generación de modelos para estar aún más desconectados de la realidad.
Más que conjuntos de entrenamiento deficientes, se trata de la arquitectura fundamental de cómo organizamos y verificamos la información en línea. Más del 65% de la población mundial pasa horas en plataformas de redes sociales diseñadas para maximizar la participación. Así, estamos expuestos, a una escala sin precedentes, a algoritmos que inadvertidamente recompensan la desinformación.
Las historias falsas provocan respuestas emocionales más fuertes, por lo que se difunden más rápido que las afirmaciones correctivas. Así, el contenido más viral —es decir, el que es más probable que sea ingerido por los pipelines de entrenamiento de IA— está sistemáticamente sesgado hacia la sensación en lugar de la precisión.
Las plataformas también obtienen beneficios de la atención, no de la verdad. Los creadores de datos son recompensados por la viralidad, no por la veracidad. Las empresas de IA optimizan para la satisfacción y el compromiso del usuario, no para la precisión factual. Y el ‘éxito’ para los chatbots es mantener a los usuarios enganchados con respuestas que suenan plausibles.
Dicho esto, la crisis de datos/confianza de la IA es realmente una extensión de la continua contaminación de nuestra conciencia humana colectiva. Estamos alimentando a la IA con lo que consumimos nosotros mismos. Los sistemas de IA no pueden distinguir la verdad del ruido, porque nosotros mismos no podemos.
La verdad es consenso después de todo. Quien controla el flujo de información también controla las narrativas que colectivamente percibimos como 'verdad' después de que se repiten suficientes veces. Y en este momento, un montón de enormes corporaciones tienen las riendas de la verdad, no nosotros como individuos. Eso puede cambiar. Debe.
La aparición de la IA veraz es un juego de suma positiva
¿Cómo solucionamos esto? ¿Cómo realineamos nuestro ecosistema de información — y por extensión, la IA — hacia la verdad? Comienza con reimaginar cómo se crea y se mantiene la verdad en primer lugar.
En el estado actual, a menudo tratamos la verdad como un juego de suma cero decidido por quien tenga la voz más fuerte o la autoridad más alta. La información está aislada y controlada de forma estricta; cada plataforma o institución impulsa su propia versión de la realidad. Un AI ( o una persona ) atrapada en uno de estos silos termina con una visión del mundo estrecha y sesgada. Así es como obtenemos cámaras de eco, y así es como tanto humanos como AI terminan siendo engañados.
Pero muchas verdades en la vida no son proposiciones binarias de suma cero. De hecho, la mayoría de las verdades significativas son de suma positiva: pueden coexistir y complementarse entre sí. ¿Cuál es el “mejor” restaurante en Nueva York? No hay una sola respuesta correcta, y esa es la belleza de ello: la verdad depende de tu gusto, tu presupuesto, tu estado de ánimo. Mi canción favorita, siendo un clásico de jazz, no hace que tu himno pop favorito sea menos “verdadero” para ti. La ganancia de una persona en comprensión no tiene que significar la pérdida de otra. Nuestras perspectivas pueden diferir sin anularse mutuamente.
Por eso es tan crítico contar con atribuciones verificables y primitivas de reputación. La verdad no puede ser solo sobre el contenido de una afirmación, tiene que ver con quién la hace, cuáles son sus incentivos y cómo se sostiene su historial pasado. Si cada afirmación en línea llevara consigo una cadena clara de autoría y un puntaje de reputación vigente, podríamos filtrar el ruido sin ceder el control a moderadores centralizados. Un actor de mala fe que intente difundir desinformación vería su reputación degradada con cada afirmación falsa. Un contribuyente reflexivo con un largo historial de precisión vería su reputación — y su influencia — aumentar.
Las criptomonedas nos dan los bloques de construcción para que esto funcione: identificadores descentralizados, registros curados por tokens, mecanismos de staking y estructuras de incentivos que convierten la precisión en un bien económico. Imagina un grafo de conocimiento donde cada declaración está vinculada a una identidad verificable, cada perspectiva lleva una puntuación de reputación y cada afirmación de verdad puede ser desafiada, apostada y adjudicada en un sistema abierto. En ese mundo, la verdad no se impone desde una única plataforma, sino que emerge orgánicamente de una red de voces atribuidas y ponderadas por reputación.
Tal sistema cambia el panorama de incentivos. En lugar de que los creadores de contenido persigan la viralidad a expensas de la precisión, estarían apostando sus reputaciones —y a menudo tokens literales— sobre la validez de sus contribuciones. En lugar de que la IA se entrene con datos anónimos, se entrenaría con datos atribuidos y ponderados por reputación donde la verdad y la confiabilidad están integradas en la propia estructura de la información.
Ahora considere la IA en este contexto. Un modelo entrenado en un gráfico consciente de la reputación consumiría una señal mucho más limpia. No solo repetiría la afirmación más viral; aprendería a tener en cuenta la atribución y la credibilidad. Con el tiempo, los agentes mismos podrían participar en este sistema — apostando por sus resultados, construyendo sus propias reputaciones y compitiendo no solo en elocuencia, sino en confiabilidad.
Así es como rompemos el ciclo de información envenenada y construimos IA que refleja una visión de verdad de suma positiva y descentralizada. Sin atribución verificable y reputación descentralizada, siempre estaremos condenados a externalizar la “verdad” a plataformas centralizadas, y siempre seremos vulnerables a la manipulación.
Con ellos, finalmente podemos avanzar más allá de la autoridad de suma cero y hacia un sistema donde la verdad emerge de manera dinámica, resiliente y, lo más importante, juntos.
Billy Luedtke
Billy Luedtke ha estado construyendo en la frontera de la blockchain desde Bitcoin en 2012 y Ethereum en 2014. Ayudó a lanzar la práctica de consultoría en blockchain de EY y pasó más de cinco años en ConsenSys modelando el ecosistema de Ethereum a través de roles en I+D, Relaciones con Desarrolladores, ingeniería de tokens e identidad descentralizada. Billy también ayudó a pionear la identidad autosoberana como Líder Empresarial en uPort, Co-Presidente del Grupo de Trabajo de Identidad Digital de la EEA y miembro fundador de la Fundación de Identidad Descentralizada. Hoy, es el fundador de Intuition, la cadena nativa para Información Financiera, transformando identidades, reclamos y reputación en datos verificables y monetizables para el próximo internet.