"الردع الخوارزمي".. أكواد مميتة سهّلت اغتيال شخصيات إيرانية

 

في العقد الثالث من القرن الحادي والعشرين، لم يعد الذكاء الاصطناعي أداة مساعدة تقتصر على تحسين حياتنا اليومية، بل تحوّل إلى عنصر أساسي في ساحات القتال الحديثة. باتت أنظمة ذكية تتخذ قرارات مصيرية، من حياة وموت، بشكل مستقل ودون رقابة بشرية مباشرة، مما يغير قواعد اللعبة في الحروب بشكل جذري.

تُعرف هذه الظاهرة بـ"القتل الخوارزمي"، وهي نقلة نوعية تمثل بداية حقبة جديدة في النزاعات المسلحة. هذه التكنولوجيا تطرح أسئلة جوهرية حول مستقبل الصراع، دور الإنسان في اتخاذ القرار، والأبعاد الأخلاقية والقانونية لاستخدام الذكاء الاصطناعي في الحروب.

حالياً، تعمل أكثر من ثلاثين دولة على تطوير أنظمة أسلحة مستقلة تعتمد على ثلاثة محاور رئيسية: شبكات استشعار متطورة تجمع البيانات من مصادر متعددة، خوارزميات تعلم آلي تحلل هذه البيانات وتتنبأ بسلوك الأهداف، وأنظمة تنفيذ ذاتية تنفذ القرارات دون الحاجة إلى تدخل بشري.

تُستخدم هذه الأنظمة في بيئات معقدة، يصعب فيها على الإنسان اتخاذ قرارات سريعة ودقيقة، مثل مكافحة الإرهاب والاشتباكات الحضرية. وقد ظهر هذا بشكل واضح في عمليات استهداف شخصيات إيرانية بارزة خلال عام 2025، حيث استُخدمت طائرات بدون طيار مزودة بخوارزميات متقدمة قادرة على تتبع الأهداف لأسابيع، وتحليل الظروف المختلفة كالموقع، الطقس، وحركة المدنيين، لاختيار الوقت الأمثل لتنفيذ الضربة بدقة تصل إلى 92%.

ما يزيد المخاوف هو أن هذه الأنظمة تتعلم وتتطور باستمرار. فهي لا تعمل وفق برنامج ثابت بل تعدل قراراتها بناءً على تجاربها وبيانات جديدة، مما يجعل سلوكها أقل قابلية للتوقع. هذا يثير إشكالية أخلاقية وقانونية بالغة الأهمية: من المسؤول إذا حدث خطأ أدى إلى مقتل مدنيين؟ هل هو المبرمج، المشغّل، الدولة، أم أن الذكاء الاصطناعي أصبح فاعلاً قانونياً مستقلاً؟

إسرائيل تُعد مثالاً بارزاً على الانتقال من الحروب التقليدية إلى "الردع الخوارزمي". عبر تكامل تقنيات الحرب الإلكترونية مع شركات تحليل البيانات، طورت منظومات ترصد التهديدات وتنفذ عمليات دقيقة لمنع نشوء الخطر قبل أن يتحول إلى تهديد فعلي. هذه الاستراتيجية تعتمد على "القتل الوقائي الحسابي"، وتتم من مراكز رقمية دون وجود بشري مباشر في الميدان.

وليس هذا محصوراً بإسرائيل أو الولايات المتحدة فقط، فالصين، روسيا، تركيا، وقوى إقليمية أخرى تتسابق لتطوير أنظمة قتالية ذكية قادرة على التنسيق بين وحدات متعددة برية وجوية وبحرية، ما يسرّع اتخاذ القرار لكنه يرفع من مخاطر التصعيد غير المتوقع. فماذا يحدث لو اصطدمت خوارزميات متنافسة؟ هل قد يؤدي خلل تقني إلى إشعال حرب؟

الأمر يصبح أكثر خطورة مع احتمال انتقال هذه التكنولوجيا إلى جهات غير حكومية. مع توافر البرمجيات مفتوحة المصدر وانخفاض تكاليف الطائرات بدون طيار، يمكن للأفراد أو الجماعات المسلحة تصميم خوارزميات بسيطة تستهدف خصوماً معينين، مما يفتح الباب أمام "ديمقراطية القتل الرقمي"، حيث يصبح القتل الإلكتروني متاحاً للجميع وليس فقط للدول.

إلى جانب القتل المادي، تنتقل الحروب إلى بعد جديد "ناعمة" عبر الهجمات السيبرانية المدعومة بالذكاء الاصطناعي، التي تستهدف تدمير المعنويات عبر نشر الأخبار الكاذبة، صناعة فيديوهات مزيفة، والتشويش على المعلومات داخل صفوف العدو.

كل هذه التطورات تحدث في ظل غياب تشريعات دولية واضحة تنظم استخدام هذه التقنيات القتالية. اتفاقيات جنيف وغيرها لم تعد كافية في عصر الأنظمة الذاتية التي تقرر مصير البشر. بالرغم من دعوات لإنشاء "اتفاقية جنيف رقمية"، فإن القوى الكبرى ترفض حتى الآن وضع قيود على هذه الأسلحة التي تمثل رصيدها الاستراتيجي.

محاولات إدخال القيم الأخلاقية داخل الخوارزميات تبقى محدودة، فالذكاء الاصطناعي لا يفهم الإنسانية، بل يعالج احتمالات ويرتكز على معادلات رياضية بحتة. وبالتالي، قد تنفذ القرارات بناءً على أرقام وليس على قيم إنسانية.

في نهاية المطاف، أصبح الإنسان متلقياً لقرارات تُتخذ من قبل أنظمة ذكية لا تعي القيم الإنسانية، ما يفرض إعادة نظر شاملة في العلاقة بين البشر والآلة، وبين المسؤولية والسلطة. إذا لم يتحرك المجتمع الدولي بشكل سريع لوضع قواعد واضحة، فقد تتحول الحروب المستقبلية إلى معارك بين خوارزميات لا تعرف الرحمة، وسيصبح البشر أهدافاً رقمية بحتة.

د. خالد وليد محمود