ألتمن يحذر من إساءة استخدام الذكاء الاصطناعي

Avatar
Lisa Ernst · 26.10.2025 · التقنية · 5 دقائق

تحذيرات سام ألتمان من إساءة استخدام الذكاء الاصطناعي، التي فسّرتها في البداية كحذر تقليدي من الرئيس التنفيذي، ثبتت صحتها من خلال أمثلة ملموسة وتفاعلات تنظيمية. في هذا الشرح سيتم توضيح ما الذي يحذر منه بالضبط، ما الذي حدث بشكل يمكن إثباته، وما هي آليات الحماية التي بدأت تعمل بالفعل.

مقدمة

سام ألتمان، رئيس OpenAI، يحذر من موجة احتيال وشيكة عبر استنساخ الصوت بالذكاء الاصطناعي وتزويرات عميقة، خاصة في القطاع المالي وحول الانتخابات ( apnews.com). ) وفي الوقت نفسه يطالب بتنظيم وتدابير تقنية، مثل مزيد من الشفافية بشأن محتويات الذكاء الاصطناعي ( apnews.com; openai.com). ). يبين هذا المقال ما تم إثباته وما يزال مفتوحاً.

ما هي إساءة استخدام الذكاء الاصطناعي؟

بمعنى إساءة استخدام الذكاء الاصطناعي هي التطبيقات التي تُضلل الناس أو تُلحق ضرراً أو تعيق العمليات الديمقراطية. وهذا يحدث على سبيل المثال من خلال مقاطع فيديو أو أصوات مزيفة (Deepfake) أو نصوص مزيفة مولدة تلقائياً ( reuters.com). ) استنساخ الصوت يشير إلى النسخ الاصطناعي لصوت من عدد قليل من عينات السمع. «Voiceprinting»، المصادقة عبر بصمة الصوت، من السهل خداعها اليوم ( apnews.com). ). المزائف العميقة (Deepfakes) هي وسائط مولّدة اصطناعيًا تبدو واقعية وتسمح لأشخاص بأن يقولوا أشياء أو يفعلوا أشياء لم تحدث أبدًا ( securityconference.org). ). ولمواجهة ذلك يجب أن تساعد أدلة الأصل مثل توقيعات C2PA، أي بيانات تعريف تشفيرية للمصدر ( openai.com; c2pa.org).

الوضع الراهن والحوادث

يثير سام ألتمان قلقه بشأن حالات إساءة استخدام محتملة للذكاء الاصطناعي.

Quelle: nzz.ch

يثير سام ألتمان قلقه بشأن حالات إساءة استخدام محتملة للذكاء الاصطناعي.

في مايو 2023 أدلى ألتمان بشهادته أمام مجلس الشيوخ الأميركي وعبّر عن دعمه لوجود إشراف حكومي أو دولي على نماذج الذكاء الاصطناعي القوية بشكل خاص ( congress.gov; youtube.com). ). في فبراير 2024 حذر في دبي من «انحرافات اجتماعية دقيقة جدًا» قد تسبب ضررًا كبيرًا دون قصد، ودعا مجددًا إلى إشراف يشبه الوكالة الدولية للطاقة الذرية على الذكاء الاصطناعي ( apnews.com).

أيضًا في فبراير 2024 وقّعت أكثر من 20 شركة تقنية، من بينها OpenAI وMicrosoft وGoogle وMeta وTikTok، في مؤتمر ميونخ للأمن اتفاقًا ضد محتوى KI-wahlin täuschende المحتوى الانتخابي المخادع ( securityconference.org; news.microsoft.com).

بعد مكالمة روبوتية مزيفة بالذكاء الاصطناعي تحاكي الصوت وكان هدفها إيقاف الناخبين في نيو هامبشاير عن التصويت في يناير 2024، أكدت هيئة FCC الأميركية أن مكالمات KI-stimmen في Robocalls غير قانونية صراحةً ( apnews.com; docs.fcc.gov).

نشرت OpenAI في 2024/2025 عدة تقارير حالة عن حالات إساءة مُحتمَة تم إحباطها، بما في ذلك جهات مرتبطة بالدولة من روسيا والصين وإيران وكوريا الشمالية. وتؤكد أن نماذج اللغة الكبيرة عملت هناك بشكل رئيسي كـ「مسرّع」 لأساليب موجودة بالفعل ( openai.com; cdn.openai.com; microsoft.com; reuters.com).

في 22 يوليو 2025 حذر ألتمان في مؤتمر لجمعية الاحتياطي الفيدرالي الأميركي من "أزمة احتيال وشيكة" في القطاع المصرفي بسبب استنساخات أصوات الذكاء الاصطناعي وندد بأن بعض المؤسسات لا تزال تقبل بصمات الصوت كطريقة توثيق ( apnews.com).

التحليل والدوافع

يحث سام ألتمان، في ضوء مخاطر إساءة استخدام الذكاء الاصطناعي، على تنظيمات وحمايات عاجلة.

Quelle: watson.ch

يحث سام ألتمان، في ضوء مخاطر إساءة استخدام الذكاء الاصطناعي، على تنظيمات وحمايات عاجلة.

يحذر سام ألتمان من إساءة استخدام الذكاء الاصطناعي لأسباب عدة. أولاً تُظهر الحوادث الواقعية، من Deepfakes الانتخابية إلى الاحتيال عبر استنساخ الصوت، مدى قابلية الاستغلال وتولد ضغوط على المنصات والسياسة ( apnews.com; apnews.com). ) ثانيًا يمكن لرغبة مبكرة في التنظيم أن تبني الثقة وتستبق تدخلات صلبة، دون أن تعرّض الابتكار للخنق تماماً ( apnews.com). ) ثالثاً تسعى الصناعة، من خلال الالتزامات الذاتية مثل اتفاق ميونخ، إلى وضع معايير قبل أن تسري قواعد ملزمة على مستوى العالم ( securityconference.org; news.microsoft.com).

في الوقت نفسه، السوق مُبالغ فيه؛ فقد وصف ألتمان مؤخرًا الذكاء الاصطناعي بأنه فقاعة، مما يبرز التوتر بين نداءات السلامة وخطط الاستثمار الضخمة ( theverge.com).

Quelle: يوتيوب

المقطع يقدم أقوال ألتمان الأصلية أمام مجلس الشيوخ الأميركي في السياق الكامل.

الحقائق والمعلومات المضللة

رجل وامرأة يجلسان على كراسٍ، محاطان بعلم الولايات المتحدة وعلم النظام الاحتياطي الفدرالي.

Quelle: user-added

رجل وامرأة يجلسان على كراسٍ، محاطان بعلم الولايات المتحدة وعلم النظام الاحتياطي الفدرالي.

ثابت أن مكالمات روبوتية بالذكاء الاصطناعي مع استنساخ صوتي غير قانونية في الولايات المتحدة؛ أوضحت FCC في 2024 أن مثل هذه المكالمات تقع ضمن حظر المكالمات الآلية ( docs.fcc.gov; apnews.com). ). كما أن انتقاد ألتمان المباشر لبصمة الصوت وتوثيق الصوت وتحذيره من موجة احتيال قادمة في المصرف ( apnews.com). ). كما أن OpenAI تحظر الحملات السياسية وبوتات التضليل والمحتوى الذي يعوق المشاركة في الانتخابات ( openai.com).

غير واضح مدى حجم الضرر الإضافي الناتج عن إساءة استخدام نماذج اللغة الكبيرة مقارنة بالطرق التقليدية؛ تقارير OpenAI وMicrosoft تورد في الغالب زيادة في الإنتاجية على الأساليب المعروفة، وليست قدرات هجومية جديدة كلياً ( microsoft.com; openai.com).

الادعاء بأن مكالمات روبوتية بالذكاء الاصطناعي "قانونية حتى صدور قوانين جديدة" ليس صحيحاً في الولايات المتحدة؛ FCC تطبق القانون القائم (TCPA) على أصوات الذكاء الاصطناعي ( docs.fcc.gov). ). كما أن الافتراض بأن «الصناعة لا تفعل شيئاً» مضلّل أيضاً؛ هناك التزامات ذاتية وتدابير تقنية، حتى وإن كان نطاقها محدوداً ( securityconference.org; openai.com).

التأثيرات والتوصيات

للمستخدمين: لا تعتمدوا على التعرف الصوتي في المعاملات البنكية؛ استخدموا تأكيدات قوية خارج القناة (مثلاً قبول التطبيق أو رمز أمان مادي). إشارات التحذير عند الاتصالات: ضغط الوقت، مسارات الدفع الغير عادية، إجراءات أمان جديدة فقط عبر الهاتف، وفي حال الشك افصلوا الاتصال وأعيدوا الاتصال رسميًا ( apnews.com).

للمعرفة المعلوماتية: افحصوا المصادر عند مقاطع صوتية/فيديو مفاجئة، وابحثوا عن دليل مضاد وتحققوا من إشارات الأصل (C2PA) ومصادر أولية موثوقة مثل AP/Reuters ( apnews.com; reuters.com). ). تقود OpenAI في أسئلة الانتخابات نحو معلومات رسمية؛ وعلى سبيل المثال في الاتحاد الأوروبي حول elections.europa.eu openai.com; elections.europa.eu).

Quelle: يوتيوب

أسئلة مفتوحة

ما مدى سرعة استبدال البنوك لإجراءات إثبات الصوت بمناهج متعددة العوامل؟ هل توجد إحصاءات دولية موثوقة عن مدى انتشار احتيال استنساخ الصوت والأضرار المالية الناتجة عنه؟ ما مدى فاعلية معايير الأصل في الممارسة عندما تكون المحتويات مُحرَّفة بشدة أو مُعاد ترميزها؟ ( openai.com)? ما التنظيم الذي ينتج عن اتفاقات طوعية – مثل قوانين ضد الدعاية الانتخابية الكاذبة للذكاء الاصطناعي مثل «Protect Elections from Deceptive AI Act» في الولايات المتحدة ( govtrack.us)?

خلاصة

تحذيرات ألتمان من إساءة استخدام الذكاء الاصطناعي ليست مخاوف مستقبلية مجردة، بل تعتمد على حالات واقعية وإمكانات تقنية وثغرات واضحة في العمليات – من بيئة الانتخابات إلى الخدمات المصرفية ( apnews.com; apnews.com). ). هناك عُدّة فعّالة: حظر صريح، توثيق أقوى، إثباتات الأصل، وقواعد منصة شفافة ( docs.fcc.gov; securityconference.org; openai.com). ). الأهم من ذلك هو تطبيقها باستمرار وتمكيننا جميعاً من اكتشاف الخداع في الوقت المناسب.

Teilen Sie doch unseren Beitrag!