نقطة العمى في الذكاء الاصطناعي: الآلات لا تستطيع فصل الحقيقة عن الضوضاء

نحن نتعجب من مدى ذكاء نماذج الذكاء الاصطناعي الحديثة — حتى تقدم لنا بثقة هراءً كاملاً.ironically, من الصعب تجاهل تلك المفارقة: مع زيادة قوة أنظمة الذكاء الاصطناعي، فإن قدرتها على التمييز بين الحقيقة والخيال ليست بالضرورة تتحسن. في بعض النواحي، إنها تزداد سوءًا.

ملخص

  • الذكاء الاصطناعي يعكس عيوب معلوماتنا. النماذج مثل GPT-5 تكافح لأن بيانات التدريب ملوثة بمحتوى فيروسي مدفوع بالتفاعل الذي يفضل الإثارة على الدقة.
  • الحقيقة لم تعد صفرية. العديد من “الحقائق” تت coexist ، لكن المنصات الحالية تركز تدفق المعلومات ، مما يخلق غرف صدى وتحامل تغذي كل من البشر و الذكاء الاصطناعي.
  • التخصيص اللامركزي يصلح الدورة. يمكن أن تكافئ الأنظمة المرتبطة بالسمعة والهوية، المدعومة بالمبادئ التشفيرية، الدقة، وتصفية الضوضاء، وتدريب الذكاء الاصطناعي على بيانات موثوقة وقابلة للتحقق.

اعتبر نتائج OpenAI الخاصة: إحدى نسخ GPT-4 ( المسماة “o3”) قدمت إجابات خاطئة حوالي 33% من الوقت في اختبارات المعايير، وفقًا لوثيقة الشركة الخاصة. بينما النسخة الأصغر منها ( “o4-mini”) أخطأت تقريبًا نصف الوقت. كان من المفترض أن النموذج الأحدث، GPT-5، يصلح هذه المشكلة ويدعي بالفعل أنه يقدم إجابات خاطئة أقل بكثير ( ~9%). ومع ذلك، يجد العديد من المستخدمين ذوي الخبرة أن GPT-5 أضعف في الممارسة—أبطأ، أكثر ترددًا، ولا يزال غالبًا ما يكون غير صحيح ( مما يدل أيضًا على أن المعايير لا تأخذنا بعيدًا بما فيه الكفاية ).

عبّر كبير موظفي التكنولوجيا في نيلون، جون وودز، عن إحباطه بشكل واضح عندما قال إن ChatGPT أصبح من “أساسي إلى قمامة” بعد إصدار GPT-5. ومع ذلك، فإن الواقع هو أن النماذج الأكثر تقدمًا ستصبح أسوأ بشكل متزايد في التمييز بين الحقيقة والضوضاء. جميعها، وليس فقط GPT.

لماذا قد تشعر الذكاء الاصطناعي الأكثر تقدمًا بأنه أقل موثوقية من سابقيه؟ أحد الأسباب هو أن هذه الأنظمة جيدة فقط بقدر جودة بيانات التدريب الخاصة بها، والبيانات التي نقدمها للذكاء الاصطناعي معيبة جوهريًا. اليوم، تأتي هذه البيانات إلى حد كبير من نموذج معلومات حيث يفضل التفاعل على الدقة بينما يقوم الحراس المركزيون بتضخيم الضجيج على الإشارة لزيادة الأرباح. لذا، من السذاجة أن نتوقع ذكاءً اصطناعيًا صادقًا دون إصلاح مشكلة البيانات أولاً.

الذكاء الاصطناعي يعكس تسمم معلوماتنا الجماعية

تتلاشى بيانات التدريب عالية الجودة بسرعة أكبر مما ننشئها. هناك حلقة تدهور متكررة تعمل: تقوم الذكاء الاصطناعي بشكل أساسي بفرز البيانات المستندة إلى الويب؛ الويب يصبح ملوثًا بشكل متزايد ببيانات زائفة وغير قابلة للتحقق من الذكاء الاصطناعي؛ البيانات الاصطناعية تدرب الجيل التالي من النماذج لتكون أكثر انفصالًا عن الواقع.

أكثر من مجموعات التدريب السيئة، يتعلق الأمر بالهيكل الأساسي لكيفية تنظيمنا والتحقق من المعلومات عبر الإنترنت. يقضي أكثر من 65% من سكان العالم ساعات على منصات الوسائط الاجتماعية المصممة لتعظيم التفاعل. وبالتالي، نحن معرضون، على نطاق غير مسبوق، لخوارزميات تكافئ عن غير قصد المعلومات المضللة.

تثير القصص الكاذبة استجابات عاطفية أقوى، لذا تنتشر أسرع من الادعاءات التصحيحية. وبالتالي، فإن المحتوى الأكثر انتشاراً - أي الذي من المرجح أن يتم تناوله بواسطة أنظمة تدريب الذكاء الاصطناعي - متحيز بشكل منهجي نحو الإثارة على حساب الدقة.

تربح المنصات أيضًا من الانتباه، وليس من الحقيقة. يتم مكافأة منشئي البيانات على الانتشار، وليس على الدقة. تقوم شركات الذكاء الاصطناعي بتحسين رضا المستخدمين والانخراط، وليس الدقة الواقعية. و"النجاح" للدردشة الآلية هو إبقاء المستخدمين مشدودين بإجابات تبدو معقولة.

ومع ذلك، فإن أزمة البيانات/الثقة في الذكاء الاصطناعي هي في الحقيقة امتداد لتسمم الوعي البشري الجماعي الذي يحدث الآن. نحن نقدم للذكاء الاصطناعي ما نستهلكه بأنفسنا. لا تستطيع أنظمة الذكاء الاصطناعي التمييز بين الحقيقة والضوضاء، لأننا نحن أنفسنا لا نستطيع.

الحقيقة هي توافق بعد كل شيء. من يتحكم في تدفق المعلومات يتحكم أيضًا في السرد الذي ندركه جميعًا على أنه 'حقيقة' بعد تكراره عددًا كافيًا من المرات. والآن، مجموعة من الشركات الضخمة تتحكم في زمام الحقيقة، وليس نحن كأفراد. يمكن أن يتغير ذلك. يجب أن يتغير.

ظهور الذكاء الاصطناعي الصادق هو لعبة ذات مجموع إيجابي

كيف يمكننا إصلاح ذلك؟ كيف يمكننا إعادة توجيه نظام المعلومات لدينا - وبالتالي، الذكاء الاصطناعي - نحو الحقيقة؟ يبدأ ذلك بإعادة تخيل كيفية إنشاء الحقيقة والحفاظ عليها في المقام الأول.

في الوضع الراهن، غالبًا ما نتعامل مع الحقيقة كأنها لعبة صفرية تقررها من يملك أعلى صوت أو أعلى سلطة. يتم حصر المعلومات والسيطرة عليها بشكل محكم؛ كل منصة أو مؤسسة تدفع نسختها الخاصة من الواقع. ينتهي الأمر بـ AI ( أو شخص) عالق في أحد هذه الصوامع إلى رؤية ضيقة ومت偏ة للعالم. هذه هي الطريقة التي نحصل بها على غرف الصدى، وهذه هي الطريقة التي ينتهي بها الأمر سواء البشر أو AI إلى الخداع.

لكن العديد من الحقائق في الحياة ليست ثنائية، أو propositions صفرية. في الواقع، معظم الحقائق ذات المعنى هي إيجابية - يمكن أن تت coexist وتكمل بعضها البعض. ما هو “أفضل” مطعم في نيويورك؟ لا توجد إجابة صحيحة واحدة، وهذه هي جمالها: تعتمد الحقيقة على ذوقك، ميزانيتك، ومزاجك. أغنيتي المفضلة، كونها كلاسيكية جاز، لا تجعل نشيدك المفضل أقل “صحة” بالنسبة لك. لا يجب أن يعني مكسب شخص ما في الفهم خسارة شخص آخر. يمكن أن تختلف وجهات نظرنا دون إبطال بعضها البعض.

لهذا فإن نسبة الاستحقاق القابلة للتحقق وبدائل السمعة تعتبر بالغة الأهمية. لا يمكن أن تكون الحقيقة مجرد محتوى الادعاء - بل يجب أن تتعلق بمن يقوم به، وما هي حوافزه، وكيف تسجل سجله السابق. إذا كان كل ادعاء على الإنترنت يحمل معه سلسلة واضحة من المؤلفين ودرجة سمعة حية، يمكننا فرز الضوضاء دون منح السيطرة للمشرفين المركزيين. سيتعرض الفاعل السيء الذي يحاول نشر المعلومات المضللة لسمعة متدهورة مع كل ادعاء كاذب. بينما سيراها المساهم المدروس الذي لديه سجل طويل من الدقة في سمعتهم - وتأثيرهم - يرتفع.

تعطينا العملات الرقمية اللبنات الأساسية لجعل هذا العمل: معرفات لامركزية، سجلات مُنسقة بالرموز، آليات الرهان، وهياكل الحوافز التي تحول الدقة إلى سلعة اقتصادية. تخيل رسمًا بيانيًا للمعرفة حيث يرتبط كل بيان بهوية قابلة للتحقق، وتحمل كل وجهة نظر درجة سمعة، ويمكن تحدي كل ادعاء حقيقي، والرهان ضده، والفصل فيه في نظام مفتوح. في ذلك العالم، لا تُمنح الحقيقة من منصة واحدة — بل تنبثق بشكل عضوي من شبكة من الأصوات المنسوبة والمُعززة بالسمعة.

مثل هذا النظام يقلب مشهد الحوافز. بدلاً من أن يسعى منشئو المحتوى إلى الفيروسية على حساب الدقة، فإنهم سيقومون برهن سمعتهم - وغالباً رموزاً فعلية - على صحة مساهماتهم. بدلاً من تدريب الذكاء الاصطناعي على بيانات مجهولة المصدر، سيتم تدريبه على بيانات مُنَسوبة ومرجحة بالسمعة حيث تكون الحقيقة والموثوقية مُدمجة في نسيج المعلومات نفسها.

الآن اعتبر الذكاء الاصطناعي في هذا السياق. سيستهلك نموذج مدرب على مثل هذا الرسم البياني الواعي بالسمعة إشارة أنظف بكثير. لن يكرر فقط أكثر الادعاءات انتشارًا؛ بل سيتعلم أن يأخذ في الاعتبار النسبة والمصداقية. بمرور الوقت، يمكن أن يشارك الوكلاء أنفسهم في هذا النظام - عن طريق المراهنة على مخرجاتهم، وبناء سمعتهم الخاصة، والتنافس ليس فقط على البلاغة ولكن على الموثوقية.

هذه هي الطريقة التي نكسر بها دورة المعلومات المسمومة ونبني الذكاء الاصطناعي الذي يعكس رؤية إيجابية الشمول، لامركزية للحقيقة. بدون نسبة يمكن التحقق منها وسمعة لامركزية، سنظل دائمًا عالقين في تفويض “الحقيقة” إلى المنصات المركزية، وسنظل دائمًا عرضة للتلاعب.

معهم، يمكننا أخيرًا الانتقال من سلطة صفرية إلى نظام تظهر فيه الحقيقة بشكل ديناميكي ومرن، والأهم من ذلك - معًا.

! بيلي لويدتك

بيلي لودتكي

بيلي لودتكي يعمل في مقدمة تقنية البلوك تشين منذ بيتكوين في 2012 وإيثيريوم في 2014. ساعد في إطلاق ممارسة استشارات البلوك تشين في EY وقضى أكثر من خمس سنوات في ConsenSys يشكل نظام إيثيريوم البيئي من خلال أدوار في البحث والتطوير، وعلاقات المطورين، وهندسة الرموز، والهوية اللامركزية. كما ساعد بيلي في ريادة الهوية الذاتية السيادية كقائد مؤسسات في uPort، ورئيس مشترك لمجموعة العمل للهوية الرقمية في EEA، وعضو مؤسس لمؤسسة الهوية اللامركزية. اليوم، هو مؤسس Intuition، السلسلة الأصلية لتمويل المعلومات، التي تحول الهويات، والمطالبات، والسمعة إلى بيانات قابلة للتحقق وقابلة للت monetization للإنترنت القادم.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • Gate Fun الساخنعرض المزيد
  • القيمة السوقية:$1Mعدد الحائزين:5319
  • القيمة السوقية:$419.6Kعدد الحائزين:22773
  • القيمة السوقية:$506.6Kعدد الحائزين:137
  • القيمة السوقية:$268.1Kعدد الحائزين:11404
  • القيمة السوقية:$43.2Kعدد الحائزين:167
  • تثبيت