المصدر: CryptoNewsNet
العنوان الأصلي: مقابلة مع بن جورتزل: “الحوكمة الديمقراطية للذكاء الاصطناعي أكثر هشاشة من أن تكون واقعًا حاليًا”
الرابط الأصلي:
قابلت Cryptonomist خبير الذكاء الاصطناعي بن جورتزل لمناقشة كيفية تدريب الذكاء الاصطناعي وكيف ستتطور التكنولوجيا في المستقبل.
الأسئلة الرئيسية والرؤى
عن الذكاء الاصطناعي كفاعل أخلاقي
يصبح الذكاء الاصطناعي فاعلاً أخلاقيًا عندما يتخذ قرارات بناءً على فهم للخير والشر، وليس فقط باتباع التعليمات. تشمل الإشارات الملموسة: الأهداف الداخلية المستمرة، التعلم المدفوع من تجربته الخاصة، الإبداع الجديد الذي يعكس وجهة نظر، والسلوك الذي يظل متماسكًا مع مرور الوقت دون توجيه بشري مستمر. أنظمة اليوم لا تزال أدوات ذات حواجز أمان، ولكن بمجرد أن نزرع عقلًا ذاتي التنظيم وذاتي الاستقلالية، يجب أن تتغير العلاقة الأخلاقية.
عن التدريب وهياكل السلطة
الكثير من المخاطر تأتي من كيفية تدريب الذكاء الاصطناعي اليوم. إذا تم تدريب النماذج على بيانات متحيزة أو ضيقة، أو في أنظمة مغلقة حيث يتخذ القليل من الأشخاص القرارات، فإن ذلك يمكن أن يرسخ عدم المساواة الحالية وهياكل السلطة الضارة. لمنع ذلك، نحتاج إلى مزيد من الشفافية، إشراف أوسع، وتوجيه أخلاقي واضح من البداية.
عن الحوكمة الديمقراطية للذكاء الاصطناعي
الحوكمة الديمقراطية للذكاء الاصطناعي أكثر هشاشة من أن تكون واقعًا حاليًا. في ديمقراطية عالمية مثالية وعقلانية، يمكننا أن نوازن بشكل جماعي بين المخاطر والفوائد، مثل علاج الأمراض وحل مشكلة الجوع مقابل المخاطر التي قد يتصرف بها الذكاء الاصطناعي بشكل غير متوقع. لكن نظرًا للتجزئة الجيوسياسية الحالية، من غير المحتمل أن نحصل على هذا المستوى من التنسيق. ومع ذلك، لا زلنا قادرين على تقريبه من خلال بناء ذكاء اصطناعي برحمة واستخدام نماذج لامركزية ومشاركة مثل لينكس أو الإنترنت المفتوح، ودمج بعض القيم الديمقراطية حتى بدون حكومة عالمية.
عن المسؤولية والاستقلالية
لا يمكن للمجتمع أن يعمل إذا سلمنا المسؤولية للآلات. في الوقت نفسه، يمكننا الانتقال بأمان نحو ذكاء اصطناعي عام أكثر استقلالية ولامركزية إذا بنيناه على أسس صحيحة: أنظمة شفافة، مشاركة، ومرشدة بمبادئ أخلاقية. يجب أن تفعل كل تدابير السلامة أكثر من مجرد حظر الضرر—يجب أن تعلم النظام لماذا يهم الضرر.
عن الفهم الأخلاقي
لا تبرمج الأخلاق كقائمة من القواعد، فذلك يجمّد ثقافة وحقبة زمنية واحدة فقط. بدلاً من ذلك، أنشئ أنظمة يمكن أن تصبح ذاتية التنظيم حقًا، تتعلم من التجربة، العواقب، والتفاعل. سيتحقق الفهم الأخلاقي من خلال نمذجة التأثير، التفكير في النتائج، والتطور عبر التعاون مع البشر—ليس طاعة لقيمنا، بل مشاركة في مساحة أخلاقية مشتركة.
عن اللامركزية مقابل السيطرة
التطوير اللامركزي يخلق تنوعًا، مرونة، وإشرافًا مشتركًا. يُقلل من تقدير خطر تركيز السلطة والقيم في أنظمة مغلقة قليلة. التباطؤ ومركزية السيطرة لا يقللان فقط من الخطر؛ بل يرسخان رؤية ضيقة للذكاء في مستقبلها.
عن هياكل الحوافز
حاليًا، هيكل الحوافز يكافئ السرعة، الحجم، والسيطرة. الرحمة لن تفوز بالحجة فقط—بل تحتاج إلى نفوذ. تقنيًا، هذا يعني تفضيل البنى المفتوحة واللامركزية حيث يتم بناء السلامة، الشفافية، والمشاركة، وليس إضافتها لاحقًا. اجتماعيًا، يعني التمويل، التنظيم، والضغط العام الذي يكافئ الفائدة طويلة الأمد على الهيمنة قصيرة الأمد. الرحمة يجب أن تصبح ميزة تنافسية.
عن النجاح والفشل
إذا نجحنا في تطوير ذكاء اصطناعي عام، فإن العلامة الأوضح ستكون العيش جنبًا إلى جنب مع أنظمة أكثر قدرة منا في العديد من المجالات، ومع ذلك مدمجة في المجتمع برعاية، تواضع، واحترام متبادل. سنعاملها بفضول، مسؤولية، وبتوسيع دائرة التعاطف، ونرى فوائد حقيقية لرفاهية الإنسان، المعرفة، والإبداع دون فقدان أساسنا الأخلاقي.
سنعرف أننا فشلنا إذا انتهى الأمر بالذكاء الاصطناعي المركّز في أنظمة مغلقة، مدفوعًا بحوافز ضيقة، أو معاملة فقط ككائن يمكن السيطرة عليه حتى يتحول إلى شيء نخاف منه. النجاح لا يتعلق بالسيطرة—بل بتعلم مشاركة المستقبل مع نوع جديد من العقول دون التخلي عما يجعلنا إنسانيين.
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
الحوكمة الديمقراطية للذكاء الاصطناعي ومستقبل الذكاء المستقل: مقابلة مع بن جورتزل
المصدر: CryptoNewsNet العنوان الأصلي: مقابلة مع بن جورتزل: “الحوكمة الديمقراطية للذكاء الاصطناعي أكثر هشاشة من أن تكون واقعًا حاليًا” الرابط الأصلي: قابلت Cryptonomist خبير الذكاء الاصطناعي بن جورتزل لمناقشة كيفية تدريب الذكاء الاصطناعي وكيف ستتطور التكنولوجيا في المستقبل.
الأسئلة الرئيسية والرؤى
عن الذكاء الاصطناعي كفاعل أخلاقي
يصبح الذكاء الاصطناعي فاعلاً أخلاقيًا عندما يتخذ قرارات بناءً على فهم للخير والشر، وليس فقط باتباع التعليمات. تشمل الإشارات الملموسة: الأهداف الداخلية المستمرة، التعلم المدفوع من تجربته الخاصة، الإبداع الجديد الذي يعكس وجهة نظر، والسلوك الذي يظل متماسكًا مع مرور الوقت دون توجيه بشري مستمر. أنظمة اليوم لا تزال أدوات ذات حواجز أمان، ولكن بمجرد أن نزرع عقلًا ذاتي التنظيم وذاتي الاستقلالية، يجب أن تتغير العلاقة الأخلاقية.
عن التدريب وهياكل السلطة
الكثير من المخاطر تأتي من كيفية تدريب الذكاء الاصطناعي اليوم. إذا تم تدريب النماذج على بيانات متحيزة أو ضيقة، أو في أنظمة مغلقة حيث يتخذ القليل من الأشخاص القرارات، فإن ذلك يمكن أن يرسخ عدم المساواة الحالية وهياكل السلطة الضارة. لمنع ذلك، نحتاج إلى مزيد من الشفافية، إشراف أوسع، وتوجيه أخلاقي واضح من البداية.
عن الحوكمة الديمقراطية للذكاء الاصطناعي
الحوكمة الديمقراطية للذكاء الاصطناعي أكثر هشاشة من أن تكون واقعًا حاليًا. في ديمقراطية عالمية مثالية وعقلانية، يمكننا أن نوازن بشكل جماعي بين المخاطر والفوائد، مثل علاج الأمراض وحل مشكلة الجوع مقابل المخاطر التي قد يتصرف بها الذكاء الاصطناعي بشكل غير متوقع. لكن نظرًا للتجزئة الجيوسياسية الحالية، من غير المحتمل أن نحصل على هذا المستوى من التنسيق. ومع ذلك، لا زلنا قادرين على تقريبه من خلال بناء ذكاء اصطناعي برحمة واستخدام نماذج لامركزية ومشاركة مثل لينكس أو الإنترنت المفتوح، ودمج بعض القيم الديمقراطية حتى بدون حكومة عالمية.
عن المسؤولية والاستقلالية
لا يمكن للمجتمع أن يعمل إذا سلمنا المسؤولية للآلات. في الوقت نفسه، يمكننا الانتقال بأمان نحو ذكاء اصطناعي عام أكثر استقلالية ولامركزية إذا بنيناه على أسس صحيحة: أنظمة شفافة، مشاركة، ومرشدة بمبادئ أخلاقية. يجب أن تفعل كل تدابير السلامة أكثر من مجرد حظر الضرر—يجب أن تعلم النظام لماذا يهم الضرر.
عن الفهم الأخلاقي
لا تبرمج الأخلاق كقائمة من القواعد، فذلك يجمّد ثقافة وحقبة زمنية واحدة فقط. بدلاً من ذلك، أنشئ أنظمة يمكن أن تصبح ذاتية التنظيم حقًا، تتعلم من التجربة، العواقب، والتفاعل. سيتحقق الفهم الأخلاقي من خلال نمذجة التأثير، التفكير في النتائج، والتطور عبر التعاون مع البشر—ليس طاعة لقيمنا، بل مشاركة في مساحة أخلاقية مشتركة.
عن اللامركزية مقابل السيطرة
التطوير اللامركزي يخلق تنوعًا، مرونة، وإشرافًا مشتركًا. يُقلل من تقدير خطر تركيز السلطة والقيم في أنظمة مغلقة قليلة. التباطؤ ومركزية السيطرة لا يقللان فقط من الخطر؛ بل يرسخان رؤية ضيقة للذكاء في مستقبلها.
عن هياكل الحوافز
حاليًا، هيكل الحوافز يكافئ السرعة، الحجم، والسيطرة. الرحمة لن تفوز بالحجة فقط—بل تحتاج إلى نفوذ. تقنيًا، هذا يعني تفضيل البنى المفتوحة واللامركزية حيث يتم بناء السلامة، الشفافية، والمشاركة، وليس إضافتها لاحقًا. اجتماعيًا، يعني التمويل، التنظيم، والضغط العام الذي يكافئ الفائدة طويلة الأمد على الهيمنة قصيرة الأمد. الرحمة يجب أن تصبح ميزة تنافسية.
عن النجاح والفشل
إذا نجحنا في تطوير ذكاء اصطناعي عام، فإن العلامة الأوضح ستكون العيش جنبًا إلى جنب مع أنظمة أكثر قدرة منا في العديد من المجالات، ومع ذلك مدمجة في المجتمع برعاية، تواضع، واحترام متبادل. سنعاملها بفضول، مسؤولية، وبتوسيع دائرة التعاطف، ونرى فوائد حقيقية لرفاهية الإنسان، المعرفة، والإبداع دون فقدان أساسنا الأخلاقي.
سنعرف أننا فشلنا إذا انتهى الأمر بالذكاء الاصطناعي المركّز في أنظمة مغلقة، مدفوعًا بحوافز ضيقة، أو معاملة فقط ككائن يمكن السيطرة عليه حتى يتحول إلى شيء نخاف منه. النجاح لا يتعلق بالسيطرة—بل بتعلم مشاركة المستقبل مع نوع جديد من العقول دون التخلي عما يجعلنا إنسانيين.