من ريادة التقنية إلى ساحات المعركة: الصفقة التاريخية التي هزّت عالم الذكاء الاصطناعي
في تطور دراماتيكي غيّر ملامح صناعة الذكاء الاصطناعي بشكل جذري، أعلن الرئيس التنفيذي لشركة OpenAI، سام التمان، في السابع والعشرين من فبراير عام 2026، عن توقيع اتفاقية رسمية مع وزارة الدفاع الأمريكية (المعروفة بالبنتاغون أو "وزارة الحرب") لنشر نماذج الذكاء الاصطناعي المتقدمة في الشبكات السرية والعسكرية الحساسة. جاءت هذه الإعلان المفاجئ بعد ساعات معدودة من قرار الرئيس الأمريكي دونالد ترمب بحظر جميع المؤسسات الفيدرالية من استخدام تقنيات شركة Anthropic المنافسة، مما خلق فراغاً استراتيجياً كبيراً استغلته OpenAI بسرعة لافتة للانقضاض عليه.
لم تكن هذه الاتفاقية مجرد صفقة تجارية عابرة، بل مثلت نقطة تحول نوعية في تاريخ العلاقة بين شركات التقنية العملاقة والمؤسسة العسكرية الأمريكية، حيث أصبحت OpenAI لأول مرة شريكاً رسمياًPentagon في مجال نشر نماذج الذكاء الاصطناعي في البيئات المصنفة سرية (Classified Environments). وقد أثار هذا الإعلان موجة واسعة من ردود الفعل المتباينة، بين مؤيد يراه ضرورة استراتيجية للأمن الوطني، ومعارض يحذر من العواقب الوخيمة على الخصوصية المدنية والحريات الفردية.

السياق التاريخي والخلفيات السياسية
الحرب التجارية بين شركات الذكاء الاصطناعي
لم تأت هذه الاتفاقية من فراغ، بل جاءت في سياق حرب تجارية حامية بين كبريات شركات الذكاء الاصطناعي على عقود البنية التحتيةDefenseية. على مدار العام الماضي، وقعت وزارة الدفاع الأمريكية اتفاقيات مع Anthropic وOpenAI وGoogle بقيمة تصل إلى 200 مليون دولار لكل شركة، في إطار سعي البنتاغون لتبني أحدث تقنيات الذكاء الاصطناعي في عملياته العسكرية والاستخباراتية. كانت Anthropic الرائدة في هذا المجال، حيث فازت بعقد قيمته 200 مليون دولار لتوفير نماذجها للوزارة، إلا أن الخلافات الجوهرية حول "الخطوط الحمراء" (Red Lines) لاستخدام الذكاء الاصطناعي أدت إلى نشوب أزمة غير مسبوقة.
أزمة Anthropic والنقاش المحتدم
رفضت شركة Anthropic بشكل قاطع عدة شروط فرضهاالبنتاغون، أبرزها السماح باستخدام نماذجها في "المراقبة الداخلية الجماعية" للمدنيين الأمريكيين، وتطوير "أسلحة مستقلة" قادرة على اتخاذ قرارات القتل دون تدخل بشري. وقد اتهمت إدارة ترمب شركة Anthropic بـ"الاستيقاظ" (Woke) بسبب إصرارها على هذه الخطوط الحمراء الأخلاقية، واتهمتها أيضاً بتشكيل "مخاطر سلسلة التوريد" (Supply Chain Risk). في المقابل، أصرت Anthropic على أن هذه المبادئ ليست "استيقاظاً" بل مبادئ أخلاقية أساسية تحمي المواطنين وتضمن الاستخدام responsible للذكاء الاصطناعي.
قرار الحظر ومغادرة Anthropic
في السابع والعشرين من فبراير 2026، announceالرئيس ترمب قراراً تاريخياً يقضي بوقف جميع التعاملات الفيدرالية مع Anthropic، مُظهراً إياهناً في قرار مفاجئ أن "جميع الوكالات الفيدرالية يجب أن تتوقف فوراً عن استخدام تقنيات Anthropic". منح القرار agencies الحكومة مهلة ستة أشهر للتخلص التدريجي من أي منتجات Anthropic، مما وضع الشركة في موقف بالغ الصعوبة.Hours بعد ساعات فقط من هذا الإعلان، خرج سام التمان ليعلن عن اتفاق OpenAI مع البنتاغون، في توقيت أثار تساؤلات كثيرة حول التنسيق المسبق بين الشركة والإدارة الأمريكية.

تفاصيل الاتفاقية الشاملة
طبيعة النماذج والبنى التحتية
وفقاً للتفاصيل التي كشفتها OpenAI رسمياً، فإن الاتفاقية تتضمن نشر نماذج الذكاء الاصطناعي الخاصة بالشركة على البنية التحتية للحوسبة السحابية (Cloud Infrastructure) الخاصة بالبنتاغون، وليس على الأجهزة الطرفية (Edge Devices) أو أنظمة التسليح المباشرة. هذا التمييز الجوهري يعني أن الذكاء الاصطناعي سيُستخدم في معالجة البيانات والتحليلات ودعم اتخاذ القرار، وليس في التحكم المباشر بالأسلحة أو المعدات العسكرية. وقد أوضحت OpenAI أن هذا الترتيب يوفر طبقة إضافية من الرقابة والسيطرة البشرية على أي استخدام للتقنية.
الشبكات السرية والبيئات المصنفة
ستعمل نماذج OpenAI داخل ما يُعرف بالشبكات السرية (Classified Networks)، وهي بيئات معزولة تماماً عن الإنترنت العام ومصممة لتخزين ومعالجة المعلومات الأعلى سرية. تضم هذه الشبكات أنظمة اتصال مشفرة ومراقبة صارمة وإجراءات وصول متعددة المستويات، مما يضمن حماية المعلومات الحساسة من التسرب أو الوصول غير المصرح به. يتطلب تشغيل نماذج الذكاء الاصطناعي في هذه البيئات تقييماً أمنياً صارماً واعتماداً من جهات متعددة، وهو ما حصلت عليه OpenAI بعد مفاوضات مطولة.
قيمة العقد والجدول الزمني
بلغت قيمة العقد حوالي 200 مليون دولار، وهو مبلغ يستحق الدراسة في سياق ميزانية البنتاغون الهائلة. في الواقع، يمثل هذا المبلغ جزءاً ضئيلاً من إيرادات OpenAI السنوية التي بلغت 14 مليار دولار في عام 2025، لكنه يكتسب أهميته الاستراتيجية من كونه بوابةشراكة أوسع مع المؤسسة العسكرية الأمريكية. جدول التنفيذ يتضمن مراحل متعددة، بدأت بالتعاقد في فبراير 2026 ومن المتوقع أن تمتد على مدى السنوات الثلاث القادمة.
الخطوط الحمراء والضمانات الأمنية
الخطوط الثلاثة الجوهرية
أعلنت OpenAI بوضوح عن ثلاثة "خطوط حمراء" تمثل محاذير جوهرية لا يمكن تجاوزها في استخدام الذكاء الاصطناعي، وقد قبلها البنتاغون كجزء من الاتفاقية:
أولاً: حظر المراقبة الداخلية الجماعية — يحظر استخدام نماذج الذكاء الاصطناعي في مراقبة المواطنين الأمريكيين داخل الأراضي الأمريكية، مما يحمي خصوصية الأفراد ويمنع تحول التقنية إلى أداة للرقابة الحكومية. هذا البند يعكس المخاوف المتزايدة من قدرة الذكاء الاصطناعي على تتبع وتحليل سلوك ملايين الأشخاص في الوقت الفعلي.
ثانياً: حظر الأسلحة المستقلة — يمنع استخدام الذكاء الاصطناعي في تطوير أو تشغيل أسلحة قادرة على اتخاذ قرارات هجومية autonomously دون إشراف بشري. تنص الاتفاقية صراحةً على أن "لن يُستخدم نظام الذكاء الاصطناعي لتوجيه أسلحة مستقلة بشكل مستقل في أي حالة تتطلب فيها القوانين أو اللوائح أو سياسة الوزارة إشرافاً بشرياً". هذا البند يضمن بقاء الإنسان في حلقة التحكم النهائي عند أي قرار يتعلق باستخدام القوة.
ثالثاً: الاحترام الإنساني — يتطلب احترام القوانين الدولية والإنسانية في أي استخدام للذكاء الاصطناعي militarily، بما في ذلك اتفاقيات جنيف والقواعد العرفية الحرب. هذا البند يهدف لمنع استخدام التقنية في أنشطة قد تمثل انتهاكات لحقوق الإنسان.
طبقات الحماية المتعددة
وراء الثلاث خطوط الحمراء، تضمن الاتفاقية طبقات إضافية من الحماية والرقابة، تشمل: المراجعة المستمرة من قبل لجان أخلاقيات مستقلة، وإمكانية OpenAI بإنهاء العقد في حال حدوث انتهاكات جسيمة، وآليات للتظلم والشكاوى، والشفافية في تقارير الاستخدام. وقد صرح مسؤول في البنتاغون أن هذه الضمانات تتجاوز ما قدمته الشركات الأخرى، مما يجعل هذه الاتفاقية "الأكثر أماناً" من وجهة نظر المؤسسة العسكرية.
💡 كلمة أخيرة..
اتفاقية سام التمان مع "وزارة الحرب" هي تذكير لنا جميعاً بأن "البيانات هي النفط الجديد"، وأننا نحن من يقرر من يملك مفاتيح هذا النفط. الخصوصية في 2026 ليست هروباً من التكنولوجيا، بل هي "هندسة ذكية" لكيفية التعامل معها.