تكنولوجيا

OpenAI في مرمى الانتقادات بعد صفقة البنتاغون وخطط تطوير “وضع البالغين”

وجدت شركة OpenAI نفسها خلال الأيام الأخيرة في قلب عاصفة انتقادات سياسية وأخلاقية وتقنية، بعد اتفاقها المثير للجدل مع وزارة الدفاع الأمريكية “البنتاغون”، وبالتزامن مع الجدل المتصاعد حول تطوير ما يُعرف بـ”وضع البالغين” داخل “ChatGPT”.
وبينما كانت الشركة تسعى إلى توسيع نفوذها في مجالات الأمن القومي والتطبيقات الموجّهة للمستخدمين، تحوّلت هذه الخطوات إلى مصدر ضغط على سمعتها داخل مجتمع التكنولوجيا وبين أوساط المستخدمين.
بدأت الأزمة عندما أعلن الرئيس التنفيذي للشركة سام ألتمان في نهاية فبراير الماضي اتفاقًا يمنح البنتاغون إمكانية الوصول إلى نماذج الذكاء الاصطناعي التي تطورها الشركة. وجاء الإعلان بعد أيام قليلة من رفض شركة أنثروبيك اتفاقًا مشابهًا مع وزارة الدفاع، إذ شدد رئيسها التنفيذي داريو أمودي على أن شركته لن توافق على أي تعاون ما لم يتضمن ضمانات واضحة تمنع استخدام التكنولوجيا في الأسلحة الذاتية التشغيل بالكامل دون إشراف بشري أو في أنظمة المراقبة الواسعة داخل الولايات المتحدة، مما وضع OpenAI مباشرة في مقارنة أخلاقية مع منافستها.
ومع أن مثل هذه الصفقات غالبًا ما تشكل إنجازًا تجاريًا للشركات التقنية، فإن الاتفاق أثار رد فعل عكسيًا سريعًا داخل OpenAI وخارجها. وبدلًا من أن يتحول إلى نجاح دعائي، وجد ألتمان نفسه مضطرًا للدفاع عن الصفقة بعد موجة انتقادات اتهمت الشركة بالتسرع في فتح الباب أمام توظيف تقنياتها في مجالات عسكرية حساسة.
استقالة بارزة واعتراضات داخلية
تصاعدت الأزمة مع إعلان كايتلين كالينوفسكي، التي كانت تشرف على العتاد في قسم الروبوتات بالشركة، استقالتها احتجاجًا على الاتفاق. وكانت كالينوفسكي قد انضمت إلى OpenAI في 2024 بعد عملها في شركة ميتا.
وأكد متحدث باسم الشركة مغادرتها، لكنه دافع عن الاتفاق مع وزارة الدفاع، موضحًا أن العقد يضع “خطوطًا حمراء واضحة”، منها حظر استخدام النماذج في المراقبة الواسعة النطاق أو في الأسلحة الذاتية التشغيل.
ولم تتوقف الاعتراضات عند هذه الاستقالة. فقد انتقد عدد من الموظفين الصفقة علنًا، ومنهم الباحث في الشركة أيدان ماكلوغلين عبر حسابه في منصة إكس.
وأشار موظف آخر إلى أن العديد من العاملين في الشركة يبدون احترامًا لموقف أنثروبيك الرافض للتعاون العسكري من دون قيود صارمة. وفي منشور آخر، دعا الموظف التقني كلايف تشان إلى نشر مزيد من التفاصيل حول العقد، مؤكدًا أنه سيدفع داخليًا نحو إنهائه إذا تبيّن أن النماذج قد تُستخدم في المراقبة الواسعة أو في الأسلحة.
وقبل إبرام الاتفاق أساسًا، كان نحو 900 موظف حالي وسابق في شركات التكنولوجيا، منها OpenAI وجوجل، قد وقعوا عريضة مشتركة تدعم موقف أنثروبيك، وترفض استخدام الذكاء الاصطناعي في أنظمة قادرة على القتل دون إشراف بشري.
رد فعل المستخدمين
ولم تقتصر الانتقادات على داخل الشركة. فقد اندلعت موجة احتجاجات رقمية على وسائل التواصل الاجتماعي، إذ دعا مستخدمون إلى مقاطعة “ChatGPT” احتجاجًا على الصفقة.
وأظهرت بيانات متاجر التطبيقات أن عمليات حذف التطبيق ارتفعت بنحو 295% في اليوم التالي لإعلان الاتفاق. وفي الوقت نفسه، قفز تطبيق Claude، التابع لشركة أنثروبيك، إلى صدارة التطبيقات المجانية الأكثر تنزيلًا في متجر “آب ستور” في الولايات المتحدة، متجاوزًا “ChatGPT”.
وامتد الغضب إلى الشارع، إذ تجمع ناشطون أمام مقر الشركة في سان فرانسيسكو مُشكّلين حركة احتجاجية أطلقوا عليها اسم “QuitGPT”، في إشارة إلى دعوات التخلي عن استخدام منتجات الشركة.
ووصلت أصداء القضية إلى الكونغرس الأمريكي؛ فقد اقترح النائب الديمقراطي سام ليكاردو تعديلًا على قانون الإنتاج الدفاعي يمنع وزارة الدفاع من معاقبة الشركات التي تفرض قيودًا على استخدام تقنياتها في التطبيقات الخطِرة.
ومع أن التعديل لم يمر في اللجنة المختصة، فإن النقاش عكس اتساع القلق السياسي من العلاقة المتنامية بين شركات الذكاء الاصطناعي والمؤسسات العسكرية.
وفي محاولة لاحتواء الغضب، أقر ألتمان بأن إعلان الصفقة تم بسرعة كبيرة. وكتب في رسالة داخلية للموظفين أن الصفقة “كانت متسرعة بالفعل، وأن مظهرها لم يكن جيدًا”. وأضاف أن الشركة عدّلت العقد ليشمل ضمانات أوضح تمنع استخدام نماذجها في المراقبة الواسعة.
جبهة ثانية من الجدل: “وضع البالغين”
في الوقت نفسه، تواجه OpenAI موجة انتقادات أخرى تتعلق بخططها لإطلاق “وضع البالغين Adult Mode” داخل “ChatGPT”، وهو خيار يسمح بعرض “محتوى ذي طابع حساس أو جنسي صريح” للمستخدمين الذين يثبتون أعمارهم كبالغين.
وترى الشركة أن هذا التوجه يعكس مبدأ “معاملة البالغين كبالغين”، لكن منتقدين حذروا من أن مثل هذه الخطوة قد تزيد خطر وصول القاصرين إلى محتوى حساس، خاصةً إذا لم تكن أنظمة التحقق من العمر دقيقة بما يكفي.
ويثير بعض الباحثين مخاوف أوسع تتعلق بتعزيز العلاقات العاطفية أو الحميمية بين المستخدمين وأنظمة الدردشة الذكية، وهو مجال ما زالت آثاره النفسية والاجتماعية غير مفهومة بالكامل، فضلًا على الاعتراضات الأخلاقية على تلك الخطوة.
وقد أجّلت الشركة إطلاق الميزة أكثر من مرة، في إشارة إلى إدراكها أن أخطارها قد تكون أكبر من مكاسبها المتوقعة.
وتكشف هذه التطورات أن OpenAI لم تعد تواجه فقط تحديات تقنية تتعلق بتطوير نماذج أكثر قوة، بل أزمة ثقة أوسع حول كيفية استخدام تلك التكنولوجيا.

نسخ الرابط
تم نسخ الرابط