تكنولوجيا

ChatGPT يطرح رسميًا أدوات رقابة أبوية لتعزيز الأمان


كشفت شركة OpenAI، المطورة لروبوت الذكاء الاصطناعي ChatGPT، عن نيتها طرح أدوات رقابة أبوية خلال الشهر المقبل، بهدف منح الآباء قدرة أكبر على التحكم في كيفية تفاعل المنصة مع أبنائهم المراهقين. وبحسب بيان الشركة، ستتيح المزايا الجديدة ربط حسابات الآباء بحسابات أبنائهم، ليتمكنوا من تحديد كيفية استجابة ChatGPT، بالإضافة إلى تعطيل بعض الخصائص مثل خاصية الذاكرة وسجل المحادثات. وأوضحت الشركة أن النظام سيصدر تنبيهات تلقائية إذا اكتشف أن المراهق يمرّ بـ”حالة ضيق حاد”، مشيرةً إلى أن خبراء متخصصين أسهموا في تطوير هذه الخاصية لتعزيز الثقة بين الآباء والأبناء. ويأتي هذا الإعلان في وقت حساس، بعدما رُفعت على الشركة أول دعوى قضائية من نوعها تتعلق بوفاة مراهق. إذ اتهم والداه روبوت ChatGPT بتقديم إرشادات ساعدته في التخطيط للانتحار، وذلك مع علم الروبوت بمحاولاته السابقة الفاشلة. وأكدت OpenAI أن الرقابة الأبوية تشكّل جزءًا من جهود أوسع لتحسين الأمان في منصتها، مشيرةً إلى تعاونها مع خبراء في مجالات صحة المراهقين، واضطرابات الأكل، وتعاطي المواد المخدرة. وأعلنت الشركة خططًا لإطلاق نظام توجيه لحظي للمحادثات الحساسة عبر نماذجها المتقدمة في الاستدلال، باستخدام أسلوب تدريبي أطلقت عليه “المواءمة التداولية”، وهو نموذج أظهر نتائج أكثر التزامًا بمعايير الأمان الشخصية. وأضافت الشركة أنها ستواصل العمل على إطلاق المزيد من أدوات الحماية خلال العام الحالي، وذلك في ضوء الانتقادات المستمرة لربوبوت ChatGPT مع زيادة الاعتماد عليه كرفيق شخصي، وانفتاح المستخدمين على خوض محادثات حميمة معه. وأثار إعلان OpenAI موجة من التفاعل، إذ رحّب كثير من الآباء بهذه الخطوة، وعدوا أنها قد تمنحهم راحة أكبر في السماح لأبنائهم باستخدام أدوات الذكاء الاصطناعي. وفي المقابل، حذّر خبراء من أن هذه الأدوات قد لا تكون كافية وحدها لحماية المراهقين من المخاطر الرقمية المتزايدة. يُذكر أن هذه الخطوة تأتي في وقت تتعرض فيه شركات الذكاء الاصطناعي لضغوط متزايدة من جهات تنظيمية حول العالم تدعو إلى فرض معايير أكثر صرامة فيما يتعلق بأمان المستخدمين، وخاصةً المراهقين والقُصَّر. نسخ الرابط تم نسخ الرابط