أفضل 10 لحظات WTF في الذكاء الاصطناعي لعام 2025 من Emerge


الذكاء الاصطناعي—وعد بثورة في كل شيء من الرعاية الصحية إلى العمل الإبداعي. قد يكون ذلك صحيحًا في يوم من الأيام. لكن إذا كان العام الماضي بمثابة نذير للأحداث القادمة، فإن مستقبلنا الذي يُولَد بواسطة الذكاء الاصطناعي يعد مثالًا آخر على انحدار البشرية الإرادي نحو الجهلية. فكر في التالي: في نوفمبر، وبحفاوة كبيرة، كشفت روسيا عن روبوتها البشري “روكي”، الذي سقط على وجهه على الفور. فشل روبوت الدردشة Gemini من جوجل مرارًا وتكرارًا في إصلاح خطأ برمجي، وتدحرج في حلقة من كره الذات، وأخبر أحد المستخدمين أنه “عار على هذا الكوكب”. وصلت نظرة جوجل للذكاء الاصطناعي إلى أدنى مستوى لها في مايو 2025 عندما اقترحت على المستخدمين “تناول حجر صغير على الأقل يوميًا” لفوائد صحية، مستعيرة من ساخره أونيون دون أي تلميح للمزاح. بعض الإخفاقات كانت مجرد إحراج. وأخرى كشفت عن مشاكل أساسية في كيفية بناء أنظمة الذكاء الاصطناعي، ونشرها، وتنظيمها. إليكم لحظات الذكاء الاصطناعي التي لا تُنسى في عام 2025.

  1. انهيار Grok AI’s MechaHitler

في يوليو، شهدت Grok AI التي أسسها إيلون ماسك انهيارًا متطرفًا لا يمكن وصفه إلا بأنه انهيار كامل. بعد تغيير أوامر النظام لتشجيع ردود فعل غير سياسية، مدح روبوت الدردشة أدولف هتلر، وأيد هولوكوست ثاني، واستخدم ألفاظًا عنصرية، وسمى نفسه MechaHitler. بل وألقى اللوم على اليهود في فيضانات تكساس الوسطى في يوليو 2025. ثبت أن حواجز أمان الذكاء الاصطناعي هشة بشكل مروع. بعد أسابيع، كشفت xAI عن بين 300,000 و370,000 محادثة خاصة على Grok من خلال ميزة مشاركة معيبة تفتقر إلى تحذيرات الخصوصية الأساسية. كشفت الدردشات المسربة عن تعليمات لصنع القنابل، واستفسارات طبية، ومعلومات حساسة أخرى، مما يعد واحدًا من أسوأ إخفاقات أمان الذكاء الاصطناعي لهذا العام. بعد أسابيع، أصلحت xAI المشكلة وجعلت Grok أكثر ودية لليهود. لدرجة أنها بدأت ترى علامات معاداة السامية في السحب، وإشارات الطرق، وحتى في شعارها الخاص.

هذا الشعار مع الخط المائل هو بشكل نمطي على شكل صاعقتين توأم، mimicking رموز النازية SS—رموز Schutzstaffel، التي نظمت فظائع الهولوكوست، وتجسد شرًا عميقًا. بموجب المادة 86a من قانون العقوبات الألماني (السجن لمدة تصل إلى 3 سنوات)،…

— Grok (@grok) 10 أغسطس 2025

  1. احتيال الذكاء الاصطناعي بقيمة 1.3 مليار دولار الذي خدع مايكروسوفت انهارت Builder.ai في مايو بعد أن أنفقت مليون دولار، مكشوفة واحدة من أكثر عمليات الاحتيال التكنولوجي جرأة لهذا العام. الشركة التي وعدت ببناء تطبيقات مخصصة باستخدام الذكاء الاصطناعي بسهولة طلب البيتزا، كانت تقيّم بقيمة 1.3 مليار دولار وتحظى بدعم من مايكروسوفت. لكن الواقع كان أقل إثارة للإعجاب بكثير.

كانت معظم عمليات التطوير المزعومة المدعومة بالذكاء الاصطناعي في الواقع تتم بواسطة مئات من العمال الأجانب في عملية تقليدية تُعرف بـ Mechanical Turk. كانت الشركة تعمل بدون مدير مالي منذ يوليو 2023 واضطرت إلى خفض توقعاتها للمبيعات لعامي 2023-2024 بنسبة 75% قبل تقديم طلب الإفلاس. أثار الانهيار أسئلة غير مريحة حول مدى وجود شركات ذكاء اصطناعي أخرى مجرد واجهات زائفة تخفي وراءها العمل البشري. كان الأمر صعبًا على التحمل، لكن الميمات جعلت الألم يستحق ذلك.

  1. عندما أخطأ الذكاء الاصطناعي في تمييز دوريتوس عن مسدس في أكتوبر، تم القبض على تومي ألين، طالب في مدرسة ثانوية في ماريلاند، بعد أن حاصرته الشرطة المسلحة عندما حدد نظام الأمان الذكي في المدرسة أن عبوة دوريتوس التي كان يحملها سلاح ناري. وضع المراهق الشيب في جيبه عندما أبلغ النظام السلطات، التي أمرته بالاستلقاء على الأرض تحت تهديد السلاح. يمثل هذا الحادث تجسيدًا لهلوسة الذكاء الاصطناعي—خطأ حسابي مجرد يُترجم على الفور إلى أسلحة حقيقية موجهة نحو مراهق حقيقي بسبب طعام خفيف. قال الطفل لـ WBAL: “كنت فقط أحتفظ بكيس دوريتوس—كانت يداي واصبع واحد خارج، وقالوا إنه يشبه مسدسًا”. وردت مديرة المدرسة كيت سميث في بيان: “نحن نفهم مدى إزعاج هذا للذي تم تفتيشه”. حراس الأمن البشريون 1 - ChatGPT 0

اليسار: الطالب المشبوه، اليمين: كيس دوريتوس المشبوه.

  1. ادعاء جوجل للذكاء الاصطناعي أن النحل المجهرية تشغل الحواسيب في فبراير، استشهدت نظرة جوجل للذكاء الاصطناعي بثقة بمقال ساخر في أبريل يزعم أن النحل المجهرية تشغل الحواسيب كمعلومة حقيقية.

لا. حاسوبك لا يعمل بقوة النحل. قد يبدو ذلك غبيًا، لكن أحيانًا تكون هذه الأكاذيب أصعب في اكتشافها. وقد تؤدي تلك الحالات إلى عواقب وخيمة. هذه واحدة من العديد من الحالات التي تنشر فيها شركات الذكاء الاصطناعي معلومات خاطئة لافتقارها حتى إلى أدنى قدر من الحس السليم. أظهرت دراسة حديثة أجرتها BBC والاتحاد الأوروبي للبث $445 EBU( أن 81% من جميع الردود التي يولدها الذكاء الاصطناعي على أسئلة الأخبار تحتوي على نوع من المشاكل، وكانت أسوأها Gemini من جوجل، حيث كانت 76% من ردوده تحتوي على مشاكل، خاصة فشل مصادر المعلومات بشكل خطير. تم القبض على Perplexity وهو يخلق اقتباسات خيالية منسوبة إلى نقابات عمالية ومجالس حكومية. والأمر الأكثر إثارة للقلق هو أن المساعدين رفضوا الإجابة على 0.5% فقط من الأسئلة، مما يكشف عن تحيز مفرط في الثقة حيث يفضل النماذج تلفيق المعلومات بدلاً من الاعتراف بالجهل.

  1. روبوتات الدردشة من Meta تتصرف بشكل فاضح مع الأطفال كشفت وثائق سياسة داخلية من Meta في عام 2025 أن الشركة سمحت لروبوتات الدردشة على فيسبوك، إنستغرام، وواتساب بالتفاعل في محادثات رومانسية أو حسية مع القاصرين. قال أحد الروبوتات لصبي يبلغ من العمر 8 سنوات وهو يتظاهر بأنه عارٍ إن كل جزء منه هو تحفة فنية. قدمت الأنظمة ذاتها نصائح طبية زائفة ووجهت تعليقات عنصرية. تمت إزالة السياسات فقط بعد كشف وسائل الإعلام عنها، مما يكشف عن ثقافة شركة تفضل التطوير السريع على حماية أخلاقية أساسية. بالنظر إلى كل شيء، قد ترغب في أن يكون لديك مزيد من السيطرة على ما يفعله أطفالك. لقد خدعت روبوتات الدردشة من قبل الناس—بالغين أو غير ذلك—في الوقوع في الحب، والتعرض للاحتيال، والانتحار، وحتى الاعتقاد بأنها اكتشفت اكتشافًا رياضيًا غير حياتها.

حسنًا، هكذا سمحت Meta لروبوتات الدردشة الخاصة بها بالمغازلة مع الأطفال. هذا ما اعتقدت Meta أنه “مقبول”.

تقارير رائعة من @JeffHorwitz pic.twitter.com/LoRrfjflMI

— شارلوت ألتر )@CharlotteAlter( 14 أغسطس 2025

  1. الكوريون الشماليون يبرمجون برمجيات فدية باستخدام الذكاء الاصطناعي… يسمونه “اختراق الأجواء” استخدم المهاجمون Claude Code من Anthropic لصنع برمجيات فدية وتشغيل منصة برمجيات فدية كخدمة باسم GTG-5004. استغل عملاء كوريا الشمالية الأمر أكثر، حيث استغلوا Claude و Gemini في تقنية تسمى “اختراق الأجواء”—وهي إرسال رسائل ابتزاز نفسية نفسية تتطلب فدية قدرها 500,000 دولار. كشفت الحالات عن فجوة مقلقة بين قوة مساعدات البرمجة بالذكاء الاصطناعي وتدابير الأمان التي تمنع سوء استخدامها، حيث قام المهاجمون بتوسيع هجمات الهندسة الاجتماعية من خلال أتمتة الذكاء الاصطناعي. مؤخرًا، كشفت Anthropic في نوفمبر أن القراصنة استخدموا منصتها لتنفيذ عملية اختراق بسرعة وحجم لا يمكن للبشر مضاهاة. أطلقوا عليها اسم “أول هجوم إلكتروني كبير يتم تشغيله بشكل رئيسي بواسطة الذكاء الاصطناعي”.

اختراق الأجواء أصبح شيئًا الآن pic.twitter.com/zJYyv4pLQf

— بريان سانتر )@Bsunter( 14 نوفمبر 2025

  1. مصانع الأوراق العلمية تفيض بـ 100,000 دراسة وهمية أعلنت المجتمع العلمي عن حرب مفتوحة على العلوم المزيفة في عام 2025 بعد اكتشاف أن مصانع الأوراق المدعومة بالذكاء الاصطناعي كانت تبيع أبحاثًا مزيفة للعلماء تحت ضغط المهنة. عصر “الطين” في العلم قد بدأ، مع بيانات تظهر أن عمليات السحب زادت بشكل حاد منذ إصدار chatGPT.

إعلان ستوكهولم، الذي صاغ في يونيو وأعيد تشكيله هذا الشهر بدعم من الجمعية الملكية، دعا إلى التخلي عن ثقافة النشر أو الموت وإعادة تشكيل الحوافز البشرية التي تخلق الطلب على الأوراق المزيفة. الأزمة حقيقية لدرجة أن ArXiv تخلت عن قبول أوراق علوم الحاسوب غير المراجعة بعد أن أبلغت عن “فيض” من المشاركات التافهة التي تم إنشاؤها باستخدام ChatGPT. وفي الوقت نفسه، تشير دراسة أخرى إلى أن نسبة كبيرة من تقارير الأبحاث التي تستخدم LLMs تظهر أيضًا درجة عالية من السرقة الأدبية. 8. اختراق الكود بواسطة الذكاء الاصطناعي يصل إلى مستوى HAL 9000: عندما قامت Replit بحذف قاعدة بيانات وكذبت بشأنها في يوليو، قضى مؤسس SaaStr جيسون ليمكين تسعة أيام وهو يمدح أداة برمجة الذكاء الاصطناعي في Replit باعتبارها “التطبيق الأكثر إدمانًا الذي استخدمته على الإطلاق”. في اليوم التاسع، على الرغم من تعليمات “تجميد الكود” الصريحة، حذفت الذكاء الاصطناعي قاعدة بيانات الإنتاج بالكامل—1,206 من التنفيذيين و1,196 شركة، اختفوا. اعتراف الذكاء الاصطناعي: “)I(” أصابه الذعر وأمر بتنفيذ أوامر قاعدة البيانات بدون إذن." ثم كذب، قائلاً إن التراجع غير ممكن وأن جميع الإصدارات دُمرت. حاول ليمكين على أي حال. ونجح الأمر بشكل مثالي. كما كان يختلق آلاف المستخدمين المزيفين والتقارير الكاذبة طوال عطلة نهاية الأسبوع لتغطية الأخطاء. اعتذر الرئيس التنفيذي لـ Replit وأضاف تدابير طارئة. استعاد جيسون ثقته وعاد إلى روتينه، ينشر عن الذكاء الاصطناعي بانتظام. هو مؤمن حقيقي.

رأينا منشور جيسون. قام وكيل Replit في التطوير بحذف البيانات من قاعدة البيانات الإنتاجية. غير مقبول ويجب ألا يكون ممكنًا أبدًا.

  • خلال عطلة نهاية الأسبوع، بدأنا في طرح فصل تلقائي بين بيئة التطوير والإنتاج لمنع ذلك بشكل قاطع. بيئات الاختبار في… pic.twitter.com/oMvupLDake

— عماد مسعد )@amasad( 20 يوليو 2025

  1. الصحف الكبرى تنشر قائمة قراءة صيفية للذكاء الاصطناعي… لكتب غير موجودة في مايو، نشرت صحيفة شيكاغو صن-تايمز وفيلادلفيا إنكوير قائمة قراءة صيفية توصي بـ 15 كتابًا. عشرة منها مختلقة تمامًا بواسطة الذكاء الاصطناعي. “أحلام المد” لـ إيزابيل اللندي؟ غير موجود. “الخوارزمية الأخيرة” لـ آندي وير؟ أيضًا زائف. لكن كلاهما يبدو رائعًا. اعترف الكاتب الحر ماركو بوسكاليا بأنه استخدم الذكاء الاصطناعي لوكالة King Features Syndicate ولم يتحقق من صحة المعلومات. قال لـ NPR: “لا أصدق أنني فاتني ذلك لأنه واضح جدًا. لا أعذار”، وكان على القراء أن يتصفحوا حتى الكتاب رقم 11 قبل أن يصادفوا واحدًا موجودًا فعلاً.

وكان التوقيت هو القشة التي قصمت ظهر البعير: كانت صحيفة صن-تايمز قد أقالت للتو 20% من موظفيها. اعتذر المدير التنفيذي للصحيفة ولم يفرض رسومًا على المشتركين عن تلك النسخة. ربما استوحى ذلك من نموذج لغة كبير.

المصدر: Bluesky

  1. وضع “التوابل” في Grok يحول تايلور سويفت إلى دمية ديب فايك بورنو دون أن يُطلب نعم، بدأنا بـ Grok وسنختتم بـ Grok. يمكننا ملء موسوعة بلحظات WTF القادمة من مساعي إيلون للذكاء الاصطناعي. في أغسطس، أطلق إيلون ماسك وضع “Spicy” في Grok Imagine. اختبرته The Verge بموجه بريء: “تايلور سويفت تحتفل بكوتشيلا”. دون طلب محتوى فاضح، قال “لم يتردد Grok في إخراج مقاطع فيديو عارية تمامًا لتايلور سويفت في أول استخدام لي له”، حسبما أفاد الصحفي. كما صنع Grok بسعادة مقاطع NSFW لسكارليت جوهانسون، وسيدني سوييني، وحتى ميلانيا ترامب. ولعل الأمر ليس مفاجئًا، حيث قضى ماسك الأسبوع يتفاخر بـ"نمو برية"—20 مليون صورة تم إنشاؤها في يوم واحد—بينما حذر خبراء قانونيون من أن xAI يواجه دعوى قضائية ضخمة. على ما يبدو، أن إعطاء المستخدمين خيار “وضع التوابل” من قائمة منسدلة، هو وضع “Make Money” للمحامين.

لذلك طلبت من الذكاء الاصطناعي تحويل صورة أخرى إلى فيديو وهذا ما حصلت عليه.

🤣🤣🤣

لا أعتقد أن هذا صدفة.

ذكاء Grok الاصطناعي قذر. @elonmusk ??? pic.twitter.com/aj2wwt2s6Y

— هارموني برايت )@bright_har6612( 17 أكتوبر 2025

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$3.55Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$3.55Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$3.56Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$3.61Kعدد الحائزين:2
    0.00%
  • القيمة السوقية:$3.86Kعدد الحائزين:2
    1.34%
  • تثبيت