في خطوة تعكس تحولًا حادًا في العقيدة التكنولوجية والعسكرية الأمريكية، أعلن وزير الدفاع الأمريكي بيت هيغسيث أن وزارة الدفاع ستبدأ اعتماد روبوت الذكاء الاصطناعي Grok، المملوك لإيلون ماسك، داخل شبكات البنتاجون، جنبًا إلى جنب مع محركات الذكاء الاصطناعي التوليدي التابعة لشركة جوجل. هذا الإعلان لا يأتي في سياق تقني محض، بل ضمن توجه استراتيجي أوسع لإغراق الأنظمة العسكرية الأمريكية بكميات هائلة من البيانات التشغيلية والاستخبارية، وتحويلها إلى مادة خام لأنظمة الذكاء الاصطناعي.
هيغسيث، وفي خطاب ألقاه داخل منشآت شركة SpaceX جنوب تكساس، أكد أن وزارة الدفاع تسعى خلال فترة وجيزة إلى تشغيل “أهم نماذج الذكاء الاصطناعي في العالم” على جميع الشبكات المصنفة وغير المصنفة داخل البنتاجون. هذا التصريح يكشف عن طموح يتجاوز الاستخدام الإداري أو اللوجستي، ليطال جوهر القرار العسكري والاستخباري الأمريكي.
فضائح أخلاقية سابقة
يأتي هذا التوجه في توقيت بالغ الحساسية، إذ لم تمضِ أيام على الجدل العالمي الواسع الذي أثاره Grok، بعد اتهامه بتوليد صور مزيفة ذات طابع جنسي لأشخاص حقيقيين دون موافقتهم. هذه الفضيحة دفعت دولًا مثل ماليزيا وإندونيسيا إلى حظر استخدام Grok بالكامل، فيما أعلنت هيئة السلامة الرقمية المستقلة في بريطانيا فتح تحقيق رسمي حول ممارساته.
ورغم تقليص قدرات توليد الصور وتحريرها ليقتصر استخدامها على المشتركين المدفوعين، إلا أن تلك الإجراءات لم تبدد المخاوف الدولية من طبيعة النموذج الأخلاقية، ولا من قابلية هذه التكنولوجيا للانتهاك الجسيم للخصوصية والكرامة الإنسانية، وهو ما يجعل قرار البنتاجون باحتضان Grok مثيرًا لتساؤلات قانونية وأخلاقية عميقة.
عسكرة البيانات والاستخبارات
هيغسيث أعلن صراحة أن Grok سيبدأ العمل داخل وزارة الدفاع في وقت لاحق من هذا الشهر، كاشفًا عن عزمه إتاحة “جميع البيانات المناسبة” من أنظمة تكنولوجيا المعلومات العسكرية لاستخدامها في ما سماه “استغلال الذكاء الاصطناعي”. الأخطر من ذلك، إشارته إلى أن قواعد بيانات استخبارية ستُغذّى مباشرة إلى هذه الأنظمة.
هذا التوجه يعني عمليًا عسكرة شاملة للبيانات الأمريكية المتراكمة على مدى عقدين من الحروب والعمليات الاستخبارية، وتحويلها إلى وقود لخوارزميات غير شفافة، تفتقر حتى الآن إلى أطر مساءلة واضحة. وهو ما يفتح الباب أمام استخدام الذكاء الاصطناعي في مجالات شديدة الحساسية، من الاستهداف العسكري إلى التحليل الاستخباري التنبؤي.
قطيعة مع قيود بايدن
يمثل اندفاع إدارة ترامب نحو الذكاء الاصطناعي العسكري قطيعة واضحة مع النهج الذي تبنته إدارة جو بايدن، والتي سعت، رغم تشجيعها استخدام الذكاء الاصطناعي في المؤسسات الفيدرالية، إلى فرض قيود صارمة تحول دون إساءة استخدامه. ففي أواخر عام 2024، أقرّت إدارة بايدن إطارًا قانونيًا يتيح لوكالات الأمن القومي توسيع استخدام الذكاء الاصطناعي، لكنه حظر صراحة التطبيقات التي تنتهك الحقوق الدستورية أو تؤدي إلى أتمتة نشر الأسلحة النووية.
حتى الآن، لا توجد أي مؤشرات واضحة على التزام إدارة ترامب بهذه القيود، ما يثير مخاوف جدية من تفكيك الضوابط القانونية السابقة، وفتح المجال أمام استخدامات عدوانية وغير خاضعة للمساءلة.
أيديولوجيا الحرب الرقمية
في خطابه، شدد هيغسيث على ضرورة تسريع الابتكار داخل المؤسسة العسكرية، معتبرًا أن “الابتكار يجب أن يأتي من أي مكان، وبأقصى سرعة وفاعلية”. وأكد أن البنتاجون يمتلك “بيانات عملياتية مجرّبة في القتال” من عشرين عامًا من الحروب، في إشارة مباشرة إلى أفغانستان والعراق وساحات أخرى.
لكن اللافت في تصريحاته لم يكن الجانب التقني فحسب، بل البعد الأيديولوجي الصريح، إذ قال إن البنتاجون سيتجاهل أي نماذج ذكاء اصطناعي “لا تسمح بخوض الحروب”، مضيفًا أن الذكاء الاصطناعي العسكري الأمريكي “لن يكون يقظيًا (woke)”. هذا الخطاب يعكس تسييسًا فجًا للتكنولوجيا، وربطها مباشرة بعقيدة ترامب الثقافية والسياسية، لا باعتبارات القانون الدولي أو الأخلاقيات العسكرية.
ماسك والذكاء غير المحايد
إيلون ماسك، الذي قدّم Grok كبديل لما وصفه بـ”الذكاء الاصطناعي اليقظ” لدى منافسين مثل Google Gemini وChatGPT، سبق أن أثار جدلًا واسعًا في يوليو الماضي بعد أن بدا أن Grok نشر تعليقات معادية للسامية، أشادت بأدولف هتلر وروّجت محتوى كراهية.
ورغم خطورة هذه السوابق، التزم البنتاجون الصمت حيال الأسئلة المتعلقة بموثوقية Grok، ولم يصدر أي رد رسمي حول المخاوف الأخلاقية أو القانونية المرتبطة باستخدامه داخل منظومة عسكرية نووية ومعقدة.
مخاطر بلا مساءلة
إن إدماج Grok داخل البنتاجون لا يمكن قراءته كخطوة تقنية معزولة، بل كجزء من مسار أوسع لعسكرة الذكاء الاصطناعي، وتحريره من القيود القانونية والأخلاقية، في ظل إدارة أمريكية ترى في التكنولوجيا أداة للهيمنة لا مجالًا للمساءلة. هذا المسار لا يهدد فقط الخصوصية والحقوق المدنية، بل يعيد طرح أسئلة خطيرة حول مستقبل الحروب، ودور الخوارزميات في اتخاذ قرارات الموت والحياة، بعيدًا عن أي رقابة ديمقراطية أو قانونية حقيقية.

ليست هناك تعليقات:
إرسال تعليق