تقنية

هل أصبح الذكاء الاصطناعي آلة للقتل الجماعي؟ وما دور إسرائيل؟

تُبرز العمليات العسكرية الجارية على عدة جبهات، من أوكرانيا إلى غزة، واقعًا جديدًا من الحروب المعتمدة على الذكاء الاصطناعي، وهو واقع لا يمكن تجاهله أو الاستهانة به. وعلى الرغم من التوجهات المتغيرة والمتباينة في هذا العصر الجديد من الحرب، سواء من ناحية العسكرية أو الاقتصادية أو الأخلاقية، فإن التحدي الثابت والملح هو السرعة التي يتقدم بها الذكاء الاصطناعي في القطاع العسكري، وهو تقدم يتجاوز بكثير قدرة المنظومات السياسية والعسكرية القائمة على التكيف.

تشهد الدول المتقدمة سباقًا محمومًا لإدماج الذكاء الاصطناعي في أنظمتها القتالية، مما يثير مخاوف جدية بشأن سباق تسلح “ذكي” قد تكون له تبعات خطيرة على النظام الدولي ومراكز القوى فيه. وفي ظل غياب توافق بين الدول الكبرى على أسس ناظمة لتأطير استخدام الذكاء الاصطناعي في الحروب، بما يضمن عدم انتهاك حقوق الإنسان وقواعد السلم والحرب، فإن الدول الأسبق في دمج هذه التكنولوجيا ستكون لها اليد العليا في تحديد سياسات ومعايير استخدامها في الحروب.

تتجلى هذه المخاوف عند النظر إلى الفواعل في النزاعات الحالية، حيث يتباين تعاملها مع الذكاء الاصطناعي بشكل ملحوظ. فبعض الدول، مثل الصين وروسيا، لا تبدي اهتمامًا كبيرًا بقيمة الإنسان في ساحة المعركة، بينما تسعى دول ديمقراطية مثل الولايات المتحدة وإسرائيل إلى وضع قوانين لتنظيم استخدام الذكاء الاصطناعي، لكنها في ذات الوقت تواصل استخدام هذه التكنولوجيا بطرق قد تنتهك الأعراف الإنسانية. إذا لم يتفق المجتمع الدولي على بروتوكولات جدية لتنظيم استخدام الذكاء الاصطناعي في النزاعات، فإن المستقبل قد يكون قاتمًا.

تُظهر تجربة إسرائيل في استخدام الذكاء الاصطناعي في حربها على غزة أن هذه المخاوف ليست مبنية على مبالغات أو رهاب مستقبل، بل على واقع ملموس. فقد أسفرت هذه التكنولوجيا عن انتهاك واضح للأعراف الدولية وحقوق الإنسان، مما أدى إلى سقوط آلاف المدنيين بين قتيل وجريح.

الذكاء الاصطناعي في ميادين القتال

تتوزع مجالات استخدام الذكاء الاصطناعي في العمل العسكري على ثلاثة مستويات رئيسية:

  1. البنية المادية للجيوش: يشمل هذا استخدام الأنظمة المستقلة في الأداء القتالي، مثل أنظمة الأسلحة الفتاكة المستقلة (LAWS)، والطائرات المسيّرة، والأنظمة الآلية غير المأهولة.
  2. التكنولوجيات السيبرانية: تشمل البرمجيات الذكية التي تعزز الدفاع عن الشبكات العسكرية أو تدعم العمليات الهجومية، بالإضافة إلى “حرب المعلومات” باستخدام تكنولوجيا “التزييف العميق” و”اللغات الكبيرة” مثل “شات جي بي تي”.
  3. آليات صنع القرار: يتمتع الذكاء الاصطناعي بقدرة على جمع وتحليل البيانات بسرعة، مما يساعد في اتخاذ قرارات عسكرية متعلقة بالاستراتيجيات والتكتيكات.

السيطرة والتحكم في الذكاء الاصطناعي العسكري

تنقسم أنظمة الذكاء الاصطناعي العسكرية من حيث مستوى السيطرة والتحكم إلى أربعة مستويات:

  1. أنظمة التحكم المباشر: حيث يتم التحكم الكامل من قبل العنصر البشري، سواء عن بُعد أو من الميدان.
  2. أنظمة التحكم المشترك: حيث تعمل بعض وظائف النظام بشكل مستقل بينما تخضع أخرى للتحكم البشري.
  3. أنظمة الرقابة الإشرافية: حيث يقوم النظام بجميع الوظائف بشكل مستقل، ولكن تحت إشراف بشري محدود.
  4. أنظمة التحكم المستقل تمامًا: حيث يعمل النظام بشكل مستقل دون تدخل بشري، وهو النوع الذي بدأت إسرائيل في استخدامه في حربها على غزة.

استخدام إسرائيل للذكاء الاصطناعي في حربها على غزة

استخدم الجيش الإسرائيلي الذكاء الاصطناعي في ثلاث فئات رئيسية:

  1. أنظمة الأسلحة الفتاكة المستقلة: مثل الطائرات المسيّرة التي يمكنها تحديد الأهداف وتنفيذ الهجمات بشكل مستقل.
  2. أنظمة التعرف على الوجه والمراقبة البيومترية: والتي تجمع وتصنف بيانات الوجوه، مما يثير مخاوف من انتهاك الخصوصية.
  3. أنظمة توليد الأهداف الآلية: التي تستخدم في رصد وتعقب الأهداف، مما أدى إلى استهداف واسع النطاق، بما في ذلك الهجمات على المدنيين.

عيوب وانتهاكات في البروتوكولات العسكرية الإسرائيلية

بشكل عام، تُعزز التكنولوجيات الذكية فعالية العمليات العسكرية وتقلل من المخاطر التي يتعرض لها الجنود. ومع ذلك، أظهرت إسرائيل من خلال استخدام الذكاء الاصطناعي في حربها على غزة قصورًا واضحًا في بروتوكولاتها العسكرية، مما انعكس على الأعداد الكبيرة من الضحايا المدنيين.

بعض العيوب البارزة:

  1. أتمتة الفاعل البشري: حيث تقلص دور الإنسان إلى مجرد توقيع على قرارات خوارزمية، مما يؤدي إلى زيادة الأضرار والضحايا.
  2. غياب التحقق والتحيز الأخلاقي: أدى استخدام الذكاء الاصطناعي إلى تجاوزات كبيرة بحقوق المدنيين، مما يتطلب مراجعة جدية للبروتوكولات العسكرية لضمان الامتثال للقيم الإنسانية.

إن مستقبل الحروب التي تعتمد على الذكاء الاصطناعي يتطلب استجابة منسقة من المجتمع الدولي لضمان الاستخدام الأخلاقي والآمن لهذه التكنولوجيا المتقدمة.

زر الذهاب إلى الأعلى