OpenAI تخترق صفوف البنتاغون: الذكاء الاصطناعي يخدم الجيش الأمريكي بشروط

في خطوة مفاجئة تعكس تحولا في العلاقة بين التكنولوجيا والمؤسسة العسكرية، أعلنت شركة OpenAI عن اتفاق رسمي مع وزارة الدفاع الأمريكية (البنتاغون) لنشر نماذج الذكاء الاصطناعي المتطورة داخل شبكاتها السحابية السرية.
تفاصيل الاتفاق بين OpenAI والبنتاغون
قال سام ألتمان، الرئيس التنفيذي لـ OpenAI، عبر منصة X، إن هذا الاتفاق جاء بعد مفاوضات مكثفة، تسارعت وتيرتها بعد أزمة بين الحكومة وشركة Anthropic.
وكشفت وكالة رويترز أن الإعلان عن الصفقة جاء بعد ساعات من إصدار الرئيس الأمريكي أمرا تنفيذيا يحظر على الوكالات الفيدرالية استخدام تقنيات Anthropic، وتصنيفها "خطرا على سلاسل التوريد" لرفضها شروطا حكومية تتعلق بالوصول غير المشروط للنماذج في العمليات العسكرية.
ضمانات وشروط صارمة
وفي مذكرة داخلية للموظفين، نقلتها صحيفة Fortune، أوضح ألتمان أن OpenAI حصلت على تنازلات قانونية تضمن بقاء "الخطوط الحمراء" للشركة سارية المفعول، ومن أبرز بنود العقد:
- حظر المراقبة الجماعية: منع استخدام النماذج في أي عمليات مراقبة تستهدف المواطنين الأمريكيين.
- المسؤولية البشرية عن القوة: ضرورة وجود إشراف بشري دائم على أي قرار يتضمن استخدام القوة العسكرية، وحظر دمج الذكاء الاصطناعي في الأسلحة الفتاكة ذاتية التشغيل بالكامل.
- التحكم في "مجموعة الأمان": تحتفظ OpenAI بالحق التقني في جعل النموذج يرفض تنفيذ مهام معينة إذا خالفت بروتوكولات الأمان الخاصة بالشركة.
- النشر السحابي: سيتم تشغيل النماذج عبر بيئات سحابية مؤمنة فقط، مع استبعاد دمجها في أنظمة الحافة مثل الطائرات المسيرة.
تبريرات وردود فعل متباينة
برر ألتمان هذه الخطوة بضرورة نزع فتيل التوتر بين وادي السيليكون والبنتاغون، محذرا من أن القطيعة بين شركات الذكاء الاصطناعي والحكومة قد تدفع بالأخيرة إلى إجراءات قانونية ضد القطاع الخاص.
ومن جهة أخرى، وصفت شركة Anthropic في بيان رسمي تصنيفها خطرا أمنيا بأنه "سابقة خطيرة" تهدف للضغط على الشركات للتخلي عن معايير السلامة، مؤكدة أنها ستلجأ للقضاء للطعن في هذا القرار.
واضافت الشركة لصحيفة ذا تايمز أوف إنديا أن أي خرق لبنود الأمان من قبل الحكومة يمنح OpenAI الحق القانوني في إنهاء العقد وسحب النماذج فورا.







