حظر الذكاء الاصطناعي الخارق: هل هو ضرورة؟

Avatar
Lisa Ernst · 22.10.2025 · التقنية · 5 دقائق

دعوة جديدة موقَّعة من تحالف واسع من وجوه إعلامية وسياسيين وباحثين ورواد التقنية تدعو إلى حظر تطوير «الذكاء الاصطناعي الخارق» حتى تضمن السلامة والموافقة الديمقراطية. وهذا التقدم، الذي يتم تداوله عالميًا اليوم، في 22 أكتوبر 2025، يطرح أسئلة مهمة ويرتبط بنقاشات سابقة حول تنظيم الذكاء الاصطناعي.

مقدمة

النقاش حول مستقبل الذكاء الاصطناعي يصل إلى ذروة جديدة. ائتلاف واسع، من بينهم الأمير هاري وميغان, ، تطالب بتجميد تطوير «الذكاء الاصطناعي الخارق». هذا النداء، الذي نُشر اليوم، في 22 أكتوبر 2025، يطالب بإيقاف التطوير حتى تتوافر السلامة والموافقة الديمقراطية. الموقعون، من بينهم أيضًا شخصيات إعلامية وسياسيين وباحثين ورواد التقنية, , يرون أن التطوير غير الخاضع للضبط لأنظمة الذكاء الاصطناعي تفوق البشر يحمل مخاطر جسيمة.

«الذكاء الاصطناعي الخارق» يشار إليه أنظمة ذكاء اصطناعي افتراضية تتفوق على البشر في جميع المهام المعرفية عملياً. . وهذا يميّزها عن الذكاء الاصطناعي العام (AGI)، الذي يمتلك قدرات تشبه البشر، وعن الذكاء الاصطناعي الخارق (ASI)، الذي يتجاوز ذلك. والتقدم الحالي يذكّر بـ دعوة التوقف من معهد مستقبل الحياة (FLI) لعام 2023, , التي دعت إلى توقف في تطوير نماذج الذكاء الاصطناعي واسعة النطاق.

الخلفية والتحليل

أقام المنظمون اليوم بياناً موجزاً بيان من 30 كلمة نشرت: «نطالب بحظر تطوير الذكاء الاصطناعي الخارق، ولا يُرفع حتى يوجد إجماع علمي واسع بأنه سيتم بشكل آمن وقابل للسيطرة، وبقبول عام قوي.» هذا البيان يرد باستمرار. AP, Reuters und dem Guardian ويُذكر أن الموقعين البارزين، بجانب الأمير هاري وميغان، يشملون أيضًا Geoffrey Hinton und Yoshua Bengio, , ومن بين الموقعين البارزين بجانب الأمير هاري وميغان أيضًا روّاد الذكاء الاصطناعي مثل ستيف وزنيك من آبل، ريتشارد برانسون، وأصوات سياسية مثل سوزان رايس. Steve Bannon und Glenn Beck يشمل أيضاً.

يهدف النداء صراحة إلى تطوير «الذكاء الاصطناعي الخارق» وليس إلى تطبيقات ذكاء اصطناعي مفيدة ومحدودة. والفكرة الاستراتيجية وراء شعار «التوقف حتى إشعار آخر» هي كبح سباق نحو أنظمة تفوق البشر كبح سباق نحو أنظمة تفوق البشر, , قد يضعف الحوافز من أجل السلامة. حظر عام مرتبط بشروط مثل الإجماع العلمي والقبول الواسع، من شأنه أن يبطئ هذا السباق ويحمل السياسة المسؤولية. يجادل معهد مستقبل الحياة منذ سنوات بأن يجب تنظيم المخاطر الوجودية بشكل منهجي, , كما هو الحال مع تكنولوجيات عالية المخاطر أخرى.

استطلاعات الرأي في الولايات المتحدة تُظهر قلقاً عاماً متزايداً: وتفيد Pew وGallup في 2025 بأن هناك تعاطفاً واضحاً مع قواعد أشد واختبارات أمان قبل إصدار أنظمة الذكاء الاصطناعي. وهذا يشير إلى دعم واسع للإجراءات التنظيمية.

Quelle: يوتيوب

هذا مقابلة مع جيفري هينتون (BBC Newsnight) يقدم معلومات خلفية حول سبب اعتبار كبار الباحثين الذكاء الاصطناعي الخارق فئة مخاطرة خاصة.

رؤية الذكاء الاصطناعي الخارق (ASI) – مفهوم يثير كل من الإعجاب والقلق.

Quelle: youtube.com

رؤية الذكاء الاصطناعي الخارق (ASI) – مفهوم يثير كل من الإعجاب والقلق.

الجدل وردود الأفعال

النداء إلى حظر الذكاء الاصطناعي الخارق موثّق: هناك نداء واسع النطاق, , لمنع تطوير الذكاء الاصطناعي الخارق حتى تُلبّى الشروط الصارمة. ال عبارة من 30 كلمة موثقة علناً وتؤكدها وكالات أنباء كبرى مثل AP و Reuters وThe Guardian.

غير واضح حتى الآن مدى قرب الذكاء الاصطناعي الخارق تقنياً. يختلف الخبراء في هذه المسألة؛ يرى الكثيرون أن هناك انعدام اليقين الكبير في مسارات التطوير والجداول الزمنية. . سيكون من الخداع تفسير النداء كـ«حظر عام للذكاء الاصطناعي». إنه يوجه في الواقع إلى هدف محدد – أنظمة تتفوق على البشر في ما يقرب من جميع المهام المعرفية – ويرتبط رفع القيود صراحةً بشروط السلامة والموافقة.

رمز لافتة الحظر يرمز إلى المطالب بوقف مؤقت أو حظر تام لتطوير الذكاء الاصطناعي الخارق.

Quelle: alamy.de

رمز لافتة الحظر يرمز إلى المطالب بوقف مؤقت أو حظر تام لتطوير الذكاء الاصطناعي الخارق.

تشير قطاعات التكنولوجيا والحكومات جزئياً إلى أن التوقفات الجذرية قد تعرّض الابتكار والقدرة التنافسية للخطر. رويترز تشير إلى مقاومة ضد حظر مؤقت في السياسة والصناعة. أصوات أخرى تؤكد أن ASI لا تزال بعيدة عن الواقع، وأن التنظيم المعتاد، مثل لائحة الذكاء الاصطناعي في الاتحاد الأوروبي، قد يوفر إطاراً كافياً. لائحة الذكاء الاصطناعي في الاتحاد الأوروبي, , توفر إطاراً كافياً. ال لائحة الذكاء الاصطناعي في الاتحاد الأوروبي, تعرّف بالفعل ممارسات محظورة وتنظم تطبيقات عالية المخاطر، لكنها لا توفر حظرًا صريحًا للذكاء الاصطناعي الخارق.

عملياً، تتحول المناقشة من «كم يمكننا أن نفعل بسرعة؟» إلى «تحت أي شروط يجوز لنا؟». بالنسبة لأوروبا، من المهم أن لائحة الذكاء الاصطناعي في الاتحاد الأوروبي تعرف بالفعل ممارسات محظورة (مثل التقييم الاجتماعي) وتنظم تطبيقات عالية المخاطر بشكل صارم – آلية حوكمة جاهزة، لكنها لا تحتوي على حظر صريح للذكاء الاصطناعي الخارق. وللتقييم، من المهم دائماً النظر إلى النص الأصلي للنداء والانتباه للمصطلحات الدقيقة. النص الأصلي للنداء للتحقق منه والانتباه إلى المصطلحات الدقيقة (AGI مقابل ASI). مصادر موثوقة للوضع التنظيمي هي صفحات الاتحاد الأوروبي وكبريات وسائل الإعلام.

Quelle: يوتيوب

المحاضرة لـماكس تيغمارك يقدم فهمًا جيدًا للفرص والمخاطر وأفكار الحوكمة حول الذكاء الاصطناعي الخارق.

التطور السريع للذكاء الاصطناعي يقود إلى مستقبل لا يمكن حتى الآن التنبؤ بتعقيده وآثاره بشكل كامل.

Quelle: nexperts.ai

التطور السريع للذكاء الاصطناعي يقود إلى مستقبل لا يمكن حتى الآن التنبؤ بتعقيده وآثاره بشكل كامل.

أسئلة مفتوحة وخلاصة

تبقى أسئلة مفتوحة: من يحدد عملياً متى تصبح التطورات «الذكاء الاصطناعي الخارق»؟ بدون مقاييس موثوقة وتدقيقات مستقلة لن ينجح حظر بسهولة. أي مؤسسات لديها التفويض والموارد لفرضه – على المستوى الوطني، الأوروبي، العالمي؟ هنا توفر الأنظمة القائمة مثل لائحة الذكاء الاصطناعي في الاتحاد الأوروبي نقاط الربط، لكنها ليست قاعدة خاصة بـ ASI كاملة. وأخيراً: ما مدى الفاصل الزمني الفعلي حتى وصول مثل هذه الأنظمة؟ تقييم القرب الزمني ما يزال مثار جدل.

النداء العالمي لإيقاف الذكاء الاصطناعي الخارق هو إشارة سياسية بشروط واضحة: أولاً الأمان والموافقة، ثم التطور. هذا يعني لكم: تمحّصوا المصطلحات بدقة، افحصوا المصادر الأساسية وقارنوا المطالب مع الأطر القانونية القائمة مثل لائحة الذكاء الاصطناعي في الاتحاد الأوروبي. و بهذا تظلون قادرين على العمل في النقاش – بعيداً عن الضجيج والهلع، كما Reuters و The Guardian التقارير.

Teilen Sie doch unseren Beitrag!