كشف تسريب البيانات أن "كلود" قد لا يكون ذكيًا بشكل كافٍ، وأن ذلك ليس مجرد قصة شائعة في المدينة، فالنماذج الذكية غير مستقرة وتشكل مخاطر على الشركات

ChainNewsAbmedia

بعد أن أصبح الذكاء الاصطناعي أداة قياسية في الشركات، فإن ظاهرة كان يُنظر إليها في الماضي على أنها «مسألة إحساس» تظهر بسرعة على السطح: إن نماذج اللغات الكبيرة LLM (Large Language Models) أصبحت «أغبى». أشار مستخدم الإنترنت Wisely Chen إلى أن ما يُسمى بـ «هبوط ذكاء LLM» ليس مجرد حكاية متداولة في المدينة، بل يمكن تتبعه باستمرار عبر البيانات، وهو ما يسبب بالفعل تأثيرًا ملموسًا على سير عمل الشركات.

واستخدم مثالًا من تجربته الشخصية، ففي 15 أبريل، حدثت عملية تدهور شاملة في خدمات سلسلة Claude التابعة لـ Anthropic، بما في ذلك claude.ai وAPI وClaude Code، حيث تظهر جميعها عبارة «Degraded Performance». ولا يتعلق الأمر بمجرد بطء أو أخطاء عارضة، بل إن جودة الاستجابة تنهار بوضوح، بل وحتى تظهر حالات لا يمكن فيها استخدام الخدمة بشكل طبيعي، ما أدى إلى تأجيل جميع مهام التطوير الثلاث في ذلك اليوم.

قد تكون هذه الظروف بالنسبة للمطورين الأفراد مجرد انخفاض في الكفاءة، لكن بالنسبة لفرق تكنولوجيا المعلومات في الشركات فإن الأثر يتضاعف. عندما يعتمد فريق يضم عدة مهندسين على أدوات الذكاء الاصطناعي لإجراء البرمجة وكتابة المستندات وأتمتة العمليات، فإن أي تدهور في النموذج يعني أن الإنتاجية الإجمالية تتراجع بشكل جماعي في الوقت نفسه، وهو ما يتحول إلى خسائر ملموسة في الوقت والتكلفة.

هل شعرت أن الذكاء الاصطناعي أصبح «أغبى»؟ تؤكد البيانات أنه تم «تدهوره» منذ وقت طويل

أشار Wisely Chen إلى أن مثل «GPT أصبح أغبى» و«Claude ليس كما كان من قبل» قد انتشرت في المجتمع منذ فترة طويلة، لكن ظلّت تفتقر إلى دعم بيانات موضوعية لفترة طويلة. وحتى ظهور منصات بدأت في الآونة الأخيرة بالمراقبة المستمرة لجودة النماذج، لم تتمكن هذه الظاهرة من أن تُقاس لأول مرة بشكل كمي.

ضمن ذلك، أجرى StupidMeter اختبارات آلية على مدار 24 ساعة على نماذج شائعة تشمل OpenAI وAnthropic وGoogle وغيرها، وتتبع مؤشرات مثل الدقة وقدرات الاستدلال والثبات. وبخلاف اختبارات benchmark التقليدية لمرة واحدة، فإن مثل هذه الأنظمة تكون أقرب إلى طريقة مراقبة واجهات برمجة التطبيقات أو قابلية خدمات التشغيل في الشركات، إذ تراقب تقلب أداء النموذج في بيئات الاستخدام الفعلية.

والنتائج واضحة جدًا: حاليًا، توجد أغلبية النماذج الرئيسية في حالة تحذير أو حالة تدهور، ولا تحافظ سوى قلة قليلة من النماذج على وضعها الطبيعي. وهذا يعني أن جودة النماذج غير مستقرة، وليست مشكلة تخص منتجًا واحدًا فقط، بل ظاهرة شائعة على مستوى الصناعة بأكملها.

LLM يهبط تدريجيًا في الذكاء، ويؤثر على استقرار سير عمل الذكاء الاصطناعي للشركات

بالنسبة للشركات، تعني هذه التغييرات أن الذكاء الاصطناعي انتقل من «أداة لتحسين الكفاءة» إلى «متغير يؤثر على الاستقرار». إذا كانت العمليات اليومية في الشركة، من كتابة البرامج إلى إجراء مراجعات الكود وصولًا إلى إنتاج المستندات وتقارير التحليل، تعتمد بالفعل بشكل كبير على LLM. ففي حال ظهرت في يومٍ ما تراجع في قدرات الاستدلال أو هبوط في جودة الإجابات لدى النموذج، فلن تظهر هذه المشكلات كما في عيوب البرمجيات التقليدية بشكل جزئي في مكان واحد، بل ستتسرب في الوقت نفسه إلى جميع مراحل استخدام الذكاء الاصطناعي.

والأكثر أهمية هو أن هذا النوع من التذبذب غالبًا ما يكون صعبًا على التنبؤ، وصعبًا أيضًا اكتشافه في الوقت المناسب. لا تمتلك معظم الشركات آليات لمراقبة جودة النماذج بشكل مستمر؛ وعادة ما يكتشفون المشكلة بعد أن تكون النتائج غير طبيعية، أو بعد أن تنخفض كفاءة الفريق، فيلاحظون أن السبب يعود إلى النموذج نفسه. في مثل هذا السياق، لم يعد «هبوط الذكاء» مجرد إحساس ذاتي لدى المستخدمين، بل أصبح خطرًا منهجيًا يؤثر مباشرة على إيقاع تشغيل الشركة.

عندما يصبح الذكاء الاصطناعي مثل الكهرباء والمياه، تصبح الاستقرارية مؤشرًا أساسيًا جديدًا

شبه Wisely Chen دور LLM بمقولة «كهرباء ومياه الشركات الحديثة». عندما يتغلغل الذكاء الاصطناعي في العمليات اليومية ويصبح قدرة أساسية لا غنى عنها، تزداد أهمية استقراريته تبعًا لذلك.

في الماضي، عند تقييم أدوات الذكاء الاصطناعي، كانت الشركات تركز على قدرات النموذج والسعر والوظائف. لكن مع بروز ظاهرة «هبوط الذكاء»، يظهر مؤشر أكثر أهمية، وهو الاستقرارية. عندما يمكن أن تتغير جودة النموذج دون إشعار، فإن الشركات لم تعد تقتصر على «استخدام الذكاء الاصطناعي»، بل يتعين عليها تحمل نوع جديد من مخاطر البنية التحتية. والأكثر يأسًا هو أنه إذا ركزت فقط على نماذج اللغات الكبيرة المتقدمة، ففي الأساس، ما دامت مشكلة القدرة الحاسوبية غير محلولة، فمن المحتمل أن يستمر حدوث ذلك.

هذه المقالة أُول مرة ظهرت في 鏈新聞 ABMedia.

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.

مقالات ذات صلة

تحوّلت ميم “رصد الوضع” MTS من وادي السيليكون إلى آلة إخبارية تعمل 24/7 يتم تسليمها بواسطة a16z

يدعم a16z عرض "Monitoring the Situation"، وهو بثّ مباشر على X يعمل على مدار الساعة 7/24، وُلد من ثقافة الميمات في Polymarket، بينما يقوم رؤوس أموال التقنية (VCs) ببناء مجمّع أخبار-صناعة خاص بهم. الملخص ساعدت أندرسن هورويتز في إطلاق "Monitoring the Situation" (MTS)، وهو برنامج بثّ مباشر يعمل على مدار الساعة 7/24 على X، مع التركيز على تنبؤات التشفير-توقعات/تنبؤات

Cryptonewsمنذ 1 س

Google 推出 Deep Research Max: يدعم MCP، ويمكنه الوصول إلى بيانات الشركات الخاصة

وفقًا لإعلان Google DeepMind الرسمي في المدونة، أطلقت Google في 21 أبريل 2026 الجيل الجديد من وكلاء الأبحاث الذاتية Deep Research وDeep Research Max، المبنيين على Gemini 3.1 Pro، بعد النسخة التجريبية التي تم توفيرها في ديسمبر 2025 عبر Interactions API. ويتاح الآن الوكيلان في صورة public preview ضمن خطط الدفع على Gemini API، وسيتكامل المستخدمون من الشركات الناشئة على Google Cloud والمستخدمون المؤسسيون تدريجيًا. توجد تحديدات مختلفة للنسختين: تفاعلي vs بحث عميق غير متزامن قسّمت Google الوكيلين وفقًا لسياقات الاستخدام: Deep Research

ChainNewsAbmediaمنذ 3 س

يوصل OpenAI Codex عدد المستخدمين النشطين شهريًا إلى 4 ملايين خلال أقل من أسبوعين

وصل OpenAI Codex إلى 4 ملايين مستخدم نشط شهريًا، بحسب ما أعلن كل من Sottiaux وAltman؛ وقد حدثت القفزة خلال أقل من أسبوعين من 3 ملايين، وتمت إعادة ضبط حدود المعدّل عبر جميع الفئات للاحتفال. وصل OpenAI Codex إلى 4 ملايين مستخدم نشط شهريًا في أقل من أسبوعين منذ الوصول إلى 3 ملايين، وفقًا لبيانات صادرة عن مسؤولين تنفيذيين في OpenAI. وللاحتفال بهذا الإنجاز، تمت إعادة ضبط حدود المعدّل عبر جميع الفئات.

GateNewsمنذ 5 س

اختيار شركتين ناشئتين من جنوب أفريقيا في مجال الذكاء الاصطناعي لدفعة Google for Startups Accelerator Africa رقم 10

تنضم شركتا ناشئتان من جنوب أفريقيا، Loop و Vambo AI، إلى الدفعة العاشرة من برنامج Google’s Accelerator Africa ضمن 2,600 تطبيق؛ يعزز Loop التنقل/المدفوعات، وتتيح Vambo AI ذكاءً اصطناعيًا متعدد اللغات؛ يستمر البرنامج من أبريل إلى يونيو 2026 مع مرشدين وورش عمل للذكاء الاصطناعي. ملخص: تم اختيار شركتين ناشئتين من جنوب أفريقيا، Loop و Vambo AI، ضمن الدفعة العاشرة من Google for Startups Accelerator Africa، وتم الاختيار من حوالي 2,600 طلب، ومن بين 15 مشاركًا من أفريقيا. يقوم Loop بتحويل خدمات التنقل والمدفوعات إلى أرقام، بينما توفر Vambo AI بنية تحتية للذكاء الاصطناعي متعدد اللغات للترجمة والكلام والذكاء الاصطناعي التوليدي عبر لغات أفريقيا. يمتد برنامج 2026 من 13 أبريل إلى 19 يونيو ويقدم إرشادًا وتدريبًا عمليًا عبر ورش عمل تركز على الذكاء الاصطناعي/التعلم الآلي. منذ عام 2018، دعم المسرّع 106 شركات ناشئة من 17 دولة أفريقية، مما ساعدها على جمع أكثر من $263 مليون وتوفير أكثر من 2,800 وظيفة.

GateNewsمنذ 6 س

قائمة Forbes AI 50 تتضمن 20 شركة جديدة؛ OpenAI وAnthropic تستحوذان على 80% من إجمالي التمويل

بوابة الأخبار رسالة، 21 أبريل — أصدرت مجلة Forbes قائمة AI 50 في نسختها الثامنة لعام 2026، والتي تضم 20 شركة تم إدراجها حديثًا. تواصل OpenAI وAnthropic قيادة الترتيب، وجذب تمويلًا كبيرًا من أبرز مستثمري رأس المال الاستثماري في وادي السيليكون ومن كبرى شركات التكنولوجيا. بلغ إجمالي التمويل لجميع شركات القائمة

GateNewsمنذ 7 س

Zi变量 تكشف نموذج WALL-B للذكاء الاصطناعي التجسيدي؛ الروبوتات ستدخل المنازل الحقيقية خلال 35 يومًا

رسالة أخبار البوابة، 21 أبريل — Zibianliang (自变量)، شركة صينية للروبوتات، عقدت مؤتمرًا صحفيًا في 21 أبريل للإعلان عن نموذجها الأساسي لتجسيد الذكاء الاصطناعي من الجيل التالي، WALL-B. وأعلنت الشركة أن الروبوتات التي تعمل بقدرات WALL-B ستدخل المنازل الحقيقية خلال 35 يومًا. وبحسب Zibianliang مؤسسها المشارك وCTO وانغ هاو، فإن WALL-B مبني على بنية World Unified Model WUM، مُصممة لإزالة فقدان البيانات بين الوحدات النمطية المنفصلة. وعلى عكس نماذج الرؤية-اللغة-الإجراء التقليدية VLA التي تعمل فيها وحدات الرؤية واللغة والحركة بشكل مستقل—مما يسبب فقدان المعلومات مع كل نقل للبيانات—يقوم WALL-B بدمج قدرات الرؤية واللغة والإجراء والتنبؤ بالبيئة المادية في شبكة موحدة واحدة يتم تدريبها معًا من الصفر. شدد وانغ على أن نماذج العالم ليست وحدات إضافية منفصلة، بل هي قدرات تنبؤية لحالات العالم المادي المستقبلية. يركز جوهر رؤية الشركة على جودة البيانات: فقد ميّز وانغ هاو بين «بيانات شراب السكر» clean, stable, predictable lab data و«بيانات الحليب» messy, uncontrollable, real-world household data. ففي حين أن التدريب على بيانات المختبر ينتج نماذج تفتقر إلى تعميم Zero-shot، فإن بيانات المنازل الحقيقية—على الرغم من أنها مكلفة وتستغرق وقتًا طويلًا لجمعها—تمكّن من التعميم الحقيقي. ولهذا الغرض، دخلت Zibianliang أكثر من 100 منزل تطوعي لتدريب WALL-B. صرّح الرئيس التنفيذي وانغ تشيان بأن الروبوتات يمكنها تنفيذ أي مهمة قابلة للتطبيق فعليًا بمجرد نشرها في المنازل، دون الحاجة إلى مراعاة القيود مسبقًا. وأبرز أن الميزة التنافسية لا تنبع من الخوارزميات أو العتاد، بل من منظومة الهندسة الكاملة—تعريف البيانات وجمعها ومعالجتها وتقييم التدريب. وفي مجال الروبوتات، قد تمتد نوافذ القيادة التقنية من هذا النوع لثلاث سنوات أو أكثر. وتجدر الإشارة إلى أن Zibianliang أكملت مؤخرًا جولة تمويل Series B بقيادة ذراع استثمارات Xiaomi، ما رفع عدد الداعمين الذين كشفت عنهم الشركة إلى أربع شركات إنترنت صينية كبرى ByteDance, Meituan, Alibaba, and Xiaomi.

GateNewsمنذ 7 س
تعليق
0/400
لا توجد تعليقات