التحقق من العمر، مخاطر الذكاء الاصطناعي، الإشراف 2025
قرار OpenAI بالسماح بمحتوى إيروتي للبالبالغين المعتمدين في ChatGPT قد أثار جدلاً حول حماية القُصَّر والحرية. المدير التنفيذي سام آلتمن دافع عن الخطوة بالحجة بأن OpenAI ليست الشرطة الأخلاقية للعالم.
OpenAI والإيروتيك
الإيروتيك في هذا السياق يشير إلى عروض جنسية صريحة في شكل نصي، يجب أن تكون متاحة حصرياً للمستخدمين البالغين. التحقق من العمر يشمل إجراءات للتحقق من العمر، من فحص الهوية إلى تقدير العمر المدعوم بالذكاء الاصطناعي. OpenAI تؤكد أن المحتويات التي تخص القُصَّر محظور بشكل صارم يبقى.
الوضع الحالي والدوافع
في 14. Oktober 2025 أعلن سام آلتمن أن ChatGPT سيسمح اعتباراً من ديسمبر بممارسة أدوار إيروتية للبالغين المعتمدين. وهذا يترافق مع توسيع خيارات الشخصية والنبرة. أكدت تقارير وسائل الإعلام هذه الخطة كجزء من المبدأ الذي يعامل المستخدمين البالغين كما البالغين. وأشارت الغارديان أيضاً إلى وجود عرض مخصص للمراهقين منذ سبتمبر وتقدير عمري مخطط له، لم تكشف تفاصيله بعد بشكل كامل. تصف OpenAI في تدويناتها توسيع التعرف على العمر ورقابة الوالدين. أكّد آلتمن أن OpenAI ليست الشرطة الأخلاقية للعالم وأنها ستحمي القُصَّر بشكل صارم.
استراتيجياً، تعزز OpenAI جاذبية المنتج للمستخدمين البالغين الذين يدفعون في بيئة يتنافس فيها المنافسون بميزات أكثر انفتاحاً لكسب حصة السوق. تحاول الشركة التراجع عن المرشحات السابقة التي فرضت بسبب مخاطر الصحة العقلية، مدعومة بآليات كشف وتدخل جديدة. يتركز الإدراك العام على السؤال عما إذا كانت منصة تضمن حرية البالغين وحماية القُصَّر بشكل موثوق. تأتي هذه الخطوة في زمن تعمل فيه السياسة الأمريكية والولايات على تشديد وصول القُصَّر إلى رفقاء الذكاء الاصطناعي.
Quelle: youtube.com
مقطع إخباري قصير يلخص الإعلان والجدل بشكل موجز.
الحقائق والانتقادات
من المؤكد أن OpenAI ترغب في السماح بمحتوى إيروتي للبالغين المعتمدين، مع نافذة بدء من ديسمبر. كما أن اقتباس آلتمن حول شرطة الأخلاق موثق أيضاً. توسعة توقع العمر وحماية المراهقين، بما في ذلك آليات الرقابة الأبوية، كذلك مؤكدة. غير واضح الإجراءات الدقيقة ونسب الخطأ في تقدير العمر؛ تذكر OpenAI المبادئ لكنها لا تقدم مقاييس موثوقة. الادعاء بأن OpenAI تسمح بمحتويات جنسية بشكل عام بدون قيود غير صحيح أو مضلل؛ سيبقى حماية القُصَّر صارمة، والمحتويات التي تخص القُصَّر محظورة.

Quelle: avasant.com
خمسة مجالات رئيسية لتنظيم المحتوى: من الكشف الآلي إلى الأطر التنظيمية.
جاءت انتقادات من رجل الأعمال مارك كوبان، الذي شكك في فعالية بوابات العمر وحذر من آثار عكسية محتملة. أبدت منظمات مناهضة للإباحية مخاوف أمان أساسية وطلبت تدابير أكثر صرامة. وصنّفت وسائل الإعلام هذه الخطوة كإشارة إلى تحول أوسع في تنظيم المحتوى واستراتيجية المنتج.
التأثيرات والأسئلة المفتوحة
هذا يعني للمستخدمين البالغين مزيداً من الحرية في خيارات الاشتراك الاختيارية، مع بقاء حدود صارمة تجاه المحتوى الضار. بالنسبة للمدارس والعائلات، يصبح من الأهم معرفة مدى فاعلية التحقق من العمر وإعدادات الأجهزة. أنظمة مشابهة مثل YouTube تعتمد بشكل متزايد على تقدير العمر المدعوم بالذكاء الاصطناعي، والذي في الواقع يؤدي إلى أخطاء في التصنيف ومسائل تتعلق بالخصوصية. عملياً، يعني هذا أن الأجهزة المدرسية تحتاج إلى إعدادات حماية صارمة وقواعد استخدام واضحة، لأن أبواب العمر وحدها لا توفر حماية مئة بالمئة.

Quelle: youtube.com
ChatGPT والذكاء الاصطناعي التوليدي في المدارس: التحديات وطرق التعامل معها في سياق التحقق من العمر وتنظيم المحتوى.
الشروط المفتوحة تتعلق بالتحقق الدقيق من تعرّف العمر بواسطة OpenAI، خاصة فيما يتعلق بمقاييس الأداء والتدقيق المستقل. حتى الآن، لا توجد معدلات خطأ منشورة أو دراسات حول احتمالية وجود تحيز. يبقى أن نرى أية إرشادات تنظيمية سيضعها المشرّع لرفقاء الذكاء الاصطناعي والوظائف الموجهة للبالغين. تُناقش مبادرات البداية الأوّلية للحد من استخدام الشات بوت للمراهقين. التنفيذ الفعلي في ديسمبر، ولا سيما تصميم Opt-in والتسجيل ورصد الاستخدام السيء، لم يُكشف عنه بالتفصيل بعد.
Quelle: يوتيوب
ملخص
تغيير السياسة يمثل تحولاً في المسار: حرية البالغين مع حماية أقوى للقُصَّر. يعتمد النجاح في الحياة اليومية على جودة التحقق من العمر، آليات حماية شفافة، وقواعد واضحة في العائلات والمدارس. يمكن للتقييم الواعي واستخدام خيارات الإعداد أن يتيح الاستخدام المسؤول للفرص، دون الاستهانة بالمخاطر.

Quelle: user-added
تمثيل تخطيطي للإشراف الآلي والبشري على المحتوى، وهو ذو صلة بأنظمة الذكاء الاصطناعي التوليدي مثل ChatGPT.