أعلنت شركة OpenAI مؤخرًا عن تحديث جديد يتضمن مجموعة من المبادئ الخاصة بحماية المراهقين الذين تتراوح أعمارهم بين 13 و17 عامًا، حيث يهدف هذا التحديث إلى إرساء ضوابط واضحة عند استخدام الذكاء الاصطناعي، وخاصة في المواقف العاطفية والحرجة، ولذلك تعكس هذه الخطوة فهم الشركة العميق لاحتياجات هذه الفئة العمرية.
إطار عمل جديد للتفاعلات مع المراهقين
يركز التحديث على أربعة وعود رئيسية، أولها سلامة المراهقين التي تظل أولوية، حتى إذا كان هناك تقصير في فوائد الذكاء الاصطناعي في بعض الحالات، بالإضافة إلى تشجيع الدعم الواقعي من خلال توجيه المراهقين للتواصل مع أشخاص بالغين موثوقين، كما يتم التعامل مع المراهقين كمراهقين حقيقيين وليس كأطفال صغار أو بالغين، وأخيرًا، تسلط الشركة الضوء على الشفافية في حدود الذكاء الاصطناعي، موضحة ما يمكنه وما لا يمكنه فعله.
حماية المراهقين من المخاطر المحتملة
عندما تتجه المحادثات نحو مواضيع حساسة مثل إيذاء النفس أو المخاطر الجنسية أو تعاطي المخدرات، يوفر ChatGPT بدائل آمنة ويشجع المستخدمين على التواصل مع شخص بالغ موثوق، كما يقوم النظام بتوجيه المراهقين إلى خطوط المساعدة أو خدمات الطوارئ في الحالات الحرجة، مما يعكس التزام OpenAI بحماية سلامتهم النفسية والجسدية.
ماذا يعني هذا للعائلات؟
توفر هذه القواعد الجديدة طمأنينة أكبر للآباء بشأن استخدام أطفالهم للتكنولوجيا، حيث تساعد في تقليل الاعتماد العاطفي على روبوتات المحادثة، وتمتد هذه الحماية إلى المحادثات الجماعية ومنصات مثل ChatGPT Atlas وتطبيق Sora، مع تذكيرات بضرورة أخذ استراحة من الشاشة لتحقيق توازن صحي بين الوقت الرقمي والواقعي، مما يسهم في تعزيز الرفاهية العامة للمراهقين.
المستقبل: أمان طويل الأمد
تعمل OpenAI حاليًا على تطوير أداة لتقدير العمر تلقائيًا لضمان تفعيل الحماية للمراهقين عند الحاجة، كما تؤكد الشركة أن هذه الإجراءات ليست ثابتة وستخضع للتحديثات بناءً على الأبحاث وردود الفعل، مما يسهم في تقديم تجربة آمنة وملائمة للمراهقين على المدى الطويل.

التعليقات