مقابلة | تقوم الشركات الكبرى بتدريب الذكاء الاصطناعي على بيانات غير ذات قيمة: الحدس

يقول مؤسس Intuition بيلي لودتك إن نماذج الذكاء الاصطناعي تزداد قوة، لكن البيانات التي يتم تدريبها عليها تزداد سوءًا. ملخص

  • الذكاء الاصطناعي جيد فقط بقدر البيانات التي نقدمها له، كما يقول بيلي لودتكي، مؤسس إنتويشن
  • نحن في عصر “الدخول والخروج غير المنظم”، حيث يصبح الذكاء الاصطناعي متكررًا
  • النماذج اللامركزية لها ميزة في التكنولوجيا وتجربة المستخدم

بينما تصبح أنظمة الذكاء الاصطناعي أكثر شيوعًا، يواجه المستخدمون بشكل متزايد قيودًا يصعب إصلاحها. بينما تتحسن النماذج، تظل البيانات الأساسية التي يتم تدريب هذه النماذج عليها كما هي. وما هو أكثر من ذلك، قد يؤدي التكرار، أو تدريب نماذج الذكاء الاصطناعي على بيانات تم إنشاؤها بواسطة ذكاء اصطناعي آخر، إلى تفاقم الوضع.

للتحدث عن مستقبل الذكاء الاصطناعي، تحدثت crypto.news إلى بيلي لودتكي، مؤسس Intuition، وهو بروتوكول لامركزي يركز على توفير نسبة موثوقة، وسمعة، وملكية البيانات للذكاء الاصطناعي. يشرح لودتكي لماذا تعتبر مجموعات البيانات الحالية للذكاء الاصطناعي معيبة جوهريًا وما يمكن القيام به لإصلاح ذلك.

Crypto.news: الجميع الآن يركز على بنية الذكاء الاصطناعي — وحدات معالجة الرسومات، الطاقة، مراكز البيانات. هل يبالغ الناس في تقدير أهمية طبقة الثقة في الذكاء الاصطناعي؟ لماذا هي مهمة؟

بيلي لودتك: 100%. الناس بالتأكيد يستهينون به — وهذا مهم لعدة أسباب.

أولاً، نحن ندخل فيما أسميه عصر “الدخول غير المنظم والخروج غير المنظم”. الذكاء الاصطناعي جيد فقط بقدر جودة البيانات التي يستهلكها. لكن تلك البيانات — خاصة من الويب المفتوح — ملوثة إلى حد كبير. إنها ليست نظيفة. إنها لا تعكس النية البشرية. جزء كبير منها يأتي من سلوكيات موجهة للألعاب على الإنترنت: الإعجابات، التقييمات، حيل التفاعل — كلها مصفاة من خلال خوارزميات محسّنة لجذب الانتباه.

لذا عندما يقوم الذكاء الاصطناعي بجمع المعلومات من الإنترنت، فإن ما يراه ليس صورة شاملة لمن نحن. إنه يرى الناس وهم يتعاملون مع المنصة. أنا لا أتصرف بنفس الطريقة على تويتر كما أفعل في الحياة الواقعية. لا أحد منا يفعل. نحن نقوم بتحسين الأداء لخوارزمية — وليس للتعبير عن أفكار حقيقية.

إنه تكراري أيضًا. تقوم المنصات بتدريبنا، ونقوم بإدخال سلوكيات مشوهة أكثر. هذا يخلق حلقة تغذية راجعة — حلزونية — تشوه إدراك الذكاء الاصطناعي للبشرية بشكل أكبر. نحن لا نعلمه ما نفكر فيه؛ نحن نعلمه ما نعتقد أنه سيحصل على إعجابات.

المستخدم العادي لا يبحث في جوجل، أو يقارن المصادر، أو يفكر بشكل نقدي. إنهم يسألون فقط ChatGPT أو نموذج آخر ويأخذون الرد على محمل الجد.

هذا خطير. إذا كان النموذج غير شفاف — صندوق أسود — والشركة التي تتحكم فيه تتحكم أيضًا في المعلومات التي يتم عرضها عليك أو عدم عرضها، فإن ذلك يعني السيطرة الكاملة على السرد. إنه مركزي، وغير مسؤول، وقوي للغاية.

تخيل أنك تسأل Grok عن أفضل بودكاست، وكانت الإجابة هي من دفع لإيلون أكثر. هذه ليست ذكاءً - إنها مجرد إعلانات متخفية.

CN: كيف يمكننا إصلاح ذلك؟ كيف نبني أنظمة تعطي الأولوية للحقيقة والقيمة بدلاً من الانخراط؟

BL: نحتاج إلى تغيير الحوافز. يجب أن تخدم هذه الأنظمة الناس — لا المؤسسات، ولا المساهمين، ولا المعلنين. هذا يعني بناء طبقة جديدة للإنترنت: هويات وسمات السمعة. هذا ما نقوم به في Intuition.

نحتاج إلى نسب موثوقة: من قال ماذا، ومتى، وفي أي سياق. ونحتاج إلى سمعة قابلة للنقل، لامركزية تساعد في تحديد مقدار الثقة التي يمكننا منحها لأي مصدر بيانات معين — ليس بناءً على الانطباعات، بل على السجل السياقي الفعلي.

ريديت هو مثال مثالي. إنه واحد من أكبر مصادر بيانات التدريب للنماذج. ولكن إذا قال مستخدم بشكل ساخر، “فقط k*** نفسك،” يمكن أن يتم جمع ذلك ويظهر في توصيات النموذج لشخص يسأل عن نصيحة طبية.

هذا مرعب — وهذا ما يحدث عندما لا تحتوي النماذج على سياق أو نسب أو وزن سمعة. نحتاج إلى معرفة: هل هذه الشخص موثوق في الطب؟ هل هو ذو سمعة في المالية؟ هل هذا مصدر موثوق، أم مجرد تعليق عشوائي آخر؟

CN: عندما تتحدث عن النسب والسمعة، يجب تخزين هذه البيانات في مكان ما. كيف تفكر في ذلك من حيث البنية التحتية - خاصة مع قضايا مثل حقوق الطبع والنشر والتعويض؟

BL: هذا بالضبط ما نقوم بحله في Intuition. بمجرد أن يكون لديك بدائل موثوقة للتخصيص، ستعرف من أنشأ ما البيانات. وهذا يسمح بملكية موّثقة للمعرفة — ومع ذلك، تعويض.

لذا بدلاً من أن تعيش بياناتك على خوادم جوجل أو واجهات برمجة التطبيقات الخاصة بـ OpenAI، تعيش على رسم بياني معرفي لامركزي. يمتلك الجميع ما يساهمون به. عندما يتم استعراض بياناتك أو استخدامها في مخرجات الذكاء الاصطناعي، تحصل على حصة من القيمة التي تولدها.

هذا مهم لأنه في الوقت الحالي نحن عبيد رقميون. نحن ننفق مواردنا الأكثر قيمة — الوقت، والانتباه، والإبداع — في توليد بيانات يحقق منها شخص آخر أرباحاً. يوتيوب ليس ذو قيمة لأنه يستضيف مقاطع الفيديو؛ إنه ذو قيمة لأن الناس يقومون بتنظيمه. بدون الإعجابات أو التعليقات أو الاشتراكات، يصبح يوتيوب بلا قيمة.

لذا نريد عالماً يمكن للجميع فيه كسب الأموال من القيمة التي يولدونها — حتى لو لم تكن مؤثراً أو منفتحاً. إذا كنت دائماً من الأوائل في اكتشاف فنانين جدد، على سبيل المثال، فإن ذوقك له قيمة. يجب أن تكون قادراً على بناء سمعة حول ذلك وتحقيق دخل منها.

CN: ولكن حتى لو حصلنا على الشفافية، فإن هذه النماذج لا تزال صعبة التفسير حقًا. OpenAI نفسها لا تستطيع شرح كيفية اتخاذ نماذجها للقرارات بشكل كامل. ماذا يحدث بعد ذلك؟

BL: نقطة رائعة. لا يمكننا تفسير سلوك النموذج بالكامل — فهي معقدة للغاية. لكن ما يمكننا التحكم فيه هو بيانات التدريب. هذه هي رافعتنا.

سأعطيك مثالاً: سمعت عن ورقة بحثية حيث كان أحد الذكاءات الاصطناعية مهووسًا بالبوم والآخر كان ممتازًا في الرياضيات. لقد تدربوا معًا فقط على المهام المتعلقة بالرياضيات. ولكن في النهاية، بدأ ذكاء الرياضيات أيضًا في حب البوم — فقط من خلال امتصاص النمط من الآخر.

من الجنون مدى كون هذه الأنماط تحت السطحية والدقيقة. لذلك، فإن الدفاع الحقيقي الوحيد هو النية. نحن بحاجة إلى أن نكون مقصودين بشأن البيانات التي نقدمها لهذه النماذج. نحن بحاجة إلى “شفاء أنفسنا”، بطريقة ما، لنظهر على الإنترنت بشكل أكثر أصالة وبناء. لأن الذكاء الاصطناعي سيعكس دائمًا قيم ومشوهات مبتكريه.

CN: دعونا نتحدث عن الأعمال. OpenAI تحرق الأموال. بنيتها التحتية باهظة الثمن للغاية. كيف يمكن لنظام لامركزي مثل Intuition أن يتنافس — مالياً وتقنياً؟

BL: لدينا ميزتان أساسيتان: القابلية للتجميع والتنسيق.

النظم البيئية اللامركزية — خاصة في مجال العملات المشفرة — تتمتع بقدرة مذهلة على التنسيق. لدينا فرق عالمية موزعة تعمل جميعها على مكونات مختلفة من نفس المشكلة الأكبر. بدلاً من أن تحرق شركة واحدة مليارات الدولارات في محاربة العالم، لدينا مئات المساهمين المتوافقين الذين يبنون أدوات قابلة للتشغيل المتبادل.

إنها مثل الفسيفساء. يعمل فريق واحد على سمعة الوكلاء، ويعمل آخر على التخزين اللامركزي، وآخر على العناصر الأساسية للهوية — ويمكننا ربط تلك العناصر معًا.

هذه هي القوة الخارقة.

الميزة الثانية هي تجربة المستخدم. OpenAI محصورة في خندقها. لا يمكنهم السماح لك بنقل سياقك من ChatGPT إلى Grok أو Anthropic — سيؤدي ذلك إلى تآكل قدرتهم على الدفاع. لكننا لا نهتم بحبسة البائع.

في نظامنا، ستتمكن من امتلاك سياقك، وأخذه معك، وتوصيله إلى أي وكيل تريده. مما يجعل التجربة أفضل. الناس سيختارونه.

****CN:ما هي تكاليف البنية التحتية؟ تشغيل النماذج الكبيرة مكلف للغاية. هل ترى عالماً حيث تعمل النماذج الأصغر محلياً؟

BL: نعم، 100%. أعتقد حقًا أن هذا هو الاتجاه الذي نتجه إليه — نحو العديد من النماذج الصغيرة التي تعمل محليًا، متصلة مثل الخلايا العصبية في سرب موزع.

بدلاً من وجود مركز بيانات ضخم واحد، لديك مليارات من أجهزة المستهلكين التي تساهم في الحوسبة. إذا استطعنا تنسيقها — وهو ما تتفوق فيه العملات المشفرة — فإن ذلك يصبح بنية أفضل.

وهذا هو السبب في أننا نبني أيضًا طبقات سمعة الوكلاء. يمكن توجيه الطلبات إلى الوكيل المتخصص المناسب للعمل. لست بحاجة إلى نموذج ضخم واحد للقيام بكل شيء. كل ما تحتاجه هو نظام ذكي لتوجيه المهام — مثل طبقة API عبر الملايين من الوكلاء.

CN: ماذا عن الحتمية؟ LLMs ليست جيدة في المهام مثل الرياضيات، حيث تريد إجابات دقيقة. هل يمكننا دمج الشيفرة الحتمية مع الذكاء الاصطناعي؟

BL: هذا ما أريده. نحتاج إلى إعادة الحتمية إلى الحلقة.

بدأنا بالتفكير الرمزي — حتمي بالكامل — ثم انطلقنا بقوة نحو التعلم العميق، الذي هو غير حتمي. وقد منحنا ذلك الانفجار الذي نشهده الآن. لكن المستقبل هو الرمزية العصبية — الجمع بين أفضل ما في الأمرين.

دع الذكاء الاصطناعي يتعامل مع التفكير الضبابي. ولكن دعوه أيضًا يقوم بتفعيل الوحدات الحتمية — السكربتات، الدوال، محركات المنطق — حيث تحتاج إلى الدقة. فكر: “أي من أصدقائي يحب هذا المطعم؟” يجب أن يكون ذلك حتميًا بنسبة 100%.

****CN:توسيع نطاق الرؤية: لقد رأينا شركات تدمج الذكاء الاصطناعي عبر عملياتها. لكن النتائج كانت متباينة. هل تعتقد أن الجيل الحالي من نماذج اللغة الكبيرة يعزز الإنتاجية حقًا؟

BL: بالتأكيد. التفرد هنا بالفعل — إنه فقط موزع بشكل غير متساو.

إذا كنت لا تستخدم الذكاء الاصطناعي في سير العمل الخاص بك، خاصةً في البرمجة أو المحتوى، فأنت تعمل بسرعة أقل بكثير من الآخرين. التقنية حقيقية، ومكاسب الكفاءة ضخمة. لقد حدث الاضطراب بالفعل. الناس فقط لم يدركوا ذلك تمامًا بعد.

CN: السؤال النهائي. الكثير من الناس يقولون إن هذه فقاعة. رأس المال المغامر يجف. OpenAI تحرق المال. نيفيديا تمول عملاءها. كيف تنتهي هذه القصة؟

BL: نعم، هناك فقاعة — لكن التكنولوجيا حقيقية. كل فقاعة تنفجر، لكن ما يتبقى بعدها هو التقنيات الأساسية. الذكاء الاصطناعي سيكون واحدًا منها. الأموال الغبية — كل تلك التطبيقات السطحية بدون ابتكار حقيقي — يتم التخلص منها. لكن فرق البنية التحتية العميقة؟ ستحافظ على بقائها.

في الواقع، يمكن أن تسير الأمور في اتجاهين: إما أن نحصل على تصحيح طفيف ونعود إلى الواقع، لكن التقدم يستمر. أو أن مكاسب الإنتاجية تكون هائلة لدرجة أن الذكاء الاصطناعي يصبح قوة انكماشية على الاقتصاد. يمكن أن يتضاعف الناتج المحلي الإجمالي بمقدار 10 أو 100 مرة في القدرة الإنتاجية. إذا حدث ذلك، فإن الإنفاق كان يستحق ذلك — نحن نرتقي كمجتمع.

سواء كان ذلك، أنا متفائل. سيكون هناك فوضى وفقدان للوظائف، نعم — ولكن أيضًا إمكانية لعالم وفير بعد الندرة إذا قمنا ببناء الأساس الصحيح.

ON-11.68%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت