يلعب الذكاء الاصطناعي دورًا رئيسيًا، بل ومثيرًا للقلق للغاية، في بعض الحسابات، في الحرب التي تخوضها إسرائيل في غزة، حيث تشير تقارير التحقيق الأخيرة إلى أن الجيش الإسرائيلي سمح لبرنامج الذكاء الاصطناعي بأخذ زمام المبادرة في استهداف الآلاف من نشطاء حماس في الأيام الأولى من القتال، وربما لعب دورًا في عمليات القتل المتهورة وغير الدقيقة، والتدمير المتفشي، وآلاف الضحايا المدنيين.
ويرفض جيش الإحتلال الإسرائيلي هذا التأكيد بشكل قاطع، فيما يقدم تقرير لموقع businessinsider الأمريكى، لمحة مرعبة عن الوجهة التي يمكن أن تتجه إليها الحرب.
مستقبل مرعب
وقال ميك رايان، وهو لواء أسترالي متقاعد وخبير استراتيجي يركز على التطورات في الحرب، لـ BI: "لقد كانت الحجة المركزية عندما كنا نتحدث عن الأنظمة المستقلة، والذكاء الاصطناعي، والفتك في الحرب"، "إن قرار قتل إنسان هو قرار كبير جدًا"
في وقت سابق من هذا الشهر، كشف تحقيق مشترك أجرته مجلة +972 و Local Call أن قوات الاحتلال الإسرائيلية كانت تستخدم برنامج ذكاء اصطناعي يسمى "لافندر" لإنشاء أهداف مشتبه بها لحماس في قطاع غزة، نقلا عن مقابلات مع ستة ضباط استخبارات إسرائيليين مجهولين.
وقالت المصادر إن التقرير يزعم أن الجيش الإسرائيلي اعتمد بشكل كبير على لافندر وتعامل بشكل أساسي مع معلوماته حول من يجب قتله "كما لو كان قرارًا إنسانيًا"، وقالت المصادر إنه بمجرد ربط فلسطيني بحماس وتحديد موقع منزله، قام الجيش الإسرائيلي فعليًا بالموافقة على قرار الآلة، ولم يستغرق الأمر أكثر من بضع ثوانٍ لمراجعته بنفسه.
ووجد التحقيق المشترك أن سرعة الاستهداف الإسرائيلي لم تبذل سوى القليل من الجهد في محاولة تقليل الضرر الذي يلحق بالمدنيين القريبين، في الخريف الماضي، ظهرت تفاصيل برنامج الإنجيل الإسرائيلي إلى النور، وكشفت أن النظام رفع قدرة إسرائيل على التوليد المستهدف من حوالي 50 سنويًا إلى أكثر من 100 يوميًا.
عندما سُئل عن التقرير بشأن لافندر، أحال الجيش الإسرائيلي BI إلى بيان نشره على X المتحدث باسم الجيش الإسرائيلي اللفتنانت كولونيل (س) نداف شوشاني، الذي كتب الأسبوع الماضي أن "جيش الاحتلال الإسرائيلي لا يستخدم أنظمة الذكاء الاصطناعي التي تختار أهدافًا للهجوم". ... وأي ادعاء آخر يظهر عدم وجود معرفة كافية بعمليات جيش الاحتلال الإسرائيلي".
ووصف شوشاني النظام بأنه قاعدة بيانات للتدقيق "مصممة لمساعدة التحليل البشري، وليس لاستبداله"، ولكن هناك مخاطر محتملة على الرغم من ذلك.
توسع انتشار الـ AI في الحروب
إسرائيل ليست الدولة الوحيدة التي تستكشف إمكانات الذكاء الاصطناعي في الحرب، ويقترن هذا البحث بزيادة التركيز على استخدام الأنظمة غير المأهولة، كما يرى العالم كثيرًا في أوكرانيا وأماكن أخرى، وفي هذا الفضاء، لم تعد المخاوف بشأن الروبوتات القاتلة مجرد خيال علمي.
وقال بيتر سينجر، خبير حرب المستقبل في مركز أبحاث New America، لـ BI: "تمامًا كما أصبح الذكاء الاصطناعي أكثر شيوعًا في عملنا وحياتنا الشخصية، كذلك في حروبنا"، موضحًا أننا "نعيش ثورة صناعية جديدة". ومثلما حدث مع الميكنة الأخيرة، فإن عالمنا يتغير، للأفضل والأسوأ على حد سواء.
يتطور الذكاء الاصطناعي بشكل أسرع من الأدوات اللازمة لإبقائه تحت السيطرة، وقال الخبراء إن تقارير استخدام إسرائيل لللافندر تثير مجموعة من المخاوف التي كانت منذ فترة طويلة في قلب النقاش حول الذكاء الاصطناعي في الحروب المستقبلية.
وأعطت العديد من الدول، بما في ذلك الولايات المتحدة وروسيا والصين، الأولوية لتنفيذ برامج الذكاء الاصطناعي في جيوشها، ويعد مشروع Maven الأمريكي، الذي خطى منذ عام 2017 خطوات كبيرة لمساعدة القوات على الأرض من خلال غربلة كميات هائلة من البيانات الواردة، مجرد مثال واحد، ومع ذلك، فقد تطورت التكنولوجيا في كثير من الأحيان بوتيرة أسرع مما تستطيع الحكومات مواكبته.
وفقًا لريان، فإن الاتجاه العام "هو أن التكنولوجيا ومتطلبات ساحة المعركة تتجاوز النظر في القضايا القانونية والأخلاقية حول تطبيق الذكاء الاصطناعي في الحرب"، وبعبارة أخرى، فإن الأمور تتحرك بسرعة كبيرة جدا، وقال رايان: "لا توجد طريقة تمكن الحكومة الحالية والأنظمة البيروقراطية لصنع السياسات حول هذه الأمور من مواكبة هذه الأمور"، مضيفًا أنها "قد لا تلحق بالركب أبدًا".
وفي نوفمبر الماضي، أثارت العديد من الحكومات مخاوف في مؤتمر للأمم المتحدة بشأن الحاجة إلى قوانين جديدة لتنظيم استخدام البرامج القاتلة المستقلة، وهي الآلات التي يقودها الذكاء الاصطناعي والتي تشارك في اتخاذ القرارات لقتل البشر.
لكن بعض الدول، وخاصة تلك التي تقود حاليًا الطريق في تطوير ونشر هذه التقنيات، كانت مترددة في فرض قيود جديدة، وعلى وجه التحديد، بدت الولايات المتحدة وروسيا وإسرائيل مترددة بشكل خاص في دعم القوانين الدولية الجديدة في هذا الشأن.
وقال بول شار، خبير الأسلحة المستقلة في مركز الأمن الأمريكي الجديد، لـ BI: "قال العديد من الجيوش: ثقوا بنا، سنكون مسؤولين عن هذه التكنولوجيا"، لكن من غير المرجح أن يثق الكثير من الناس في غياب الرقابة، واستخدام الذكاء الاصطناعي من قبل بعض الدول، مثل إسرائيل، لا يعطي ثقة كبيرة في أن الجيوش ستستخدم دائمًا التكنولوجيا الجديدة بشكل مسؤول.
وقال شاري إن برنامجًا مثل Lavender، كما ورد، لا يبدو مثل الخيال العلمي، وهو يتماشى تمامًا مع الكيفية التي تهدف بها الجيوش العالمية إلى استخدام الذكاء الاصطناعي، وسوف يمر الجيش "بعملية جمع المعلومات، وتحليلها، وفهمها، واتخاذ القرارات بشأن الأهداف التي سيتم مهاجمتها، سواء أكانوا أشخاصًا كجزء من شبكة أو منظمة متمردة، أو يمكن أن يكونوا عسكريين"، وقال لـ BI: "أهداف مثل الدبابات أو قطع المدفعية".
والخطوة التالية هي نقل كل هذه المعلومات إلى خطة الاستهداف، وربطها بأسلحة أو منصات محددة، ثم العمل فعليًا على الخطة.
وقال شاري إن الأمر يستغرق وقتا طويلا، وفي حالة إسرائيل، من المحتمل أن تكون هناك رغبة في تطوير الكثير من الأهداف بسرعة كبيرة، وقد أعرب الخبراء عن مخاوفهم بشأن دقة برامج استهداف الذكاء الاصطناعي هذه، وبحسب ما ورد يقوم برنامج لافندر الإسرائيلي بسحب البيانات من مجموعة متنوعة من قنوات المعلومات، مثل وسائل التواصل الاجتماعي واستخدام الهاتف، لتحديد الأهداف.
في تقرير مجلة +972 والمكالمات المحلية، تقول المصادر أن معدل دقة البرنامج الذي يبلغ 90% يعتبر مقبولاً، القضية الصارخة هناك هي الـ 10٪ المتبقية، وهذا عدد كبير من الأخطاء بالنظر إلى حجم الحرب الجوية الإسرائيلية والزيادة الكبيرة في الأهداف المتاحة التي يوفرها الذكاء الاصطناعي.
والذكاء الاصطناعي يتعلم دائمًا، للأفضل أو للأسوأ، ومع كل استخدام، تكتسب هذه البرامج المعرفة والخبرة التي تستخدمها بعد ذلك في اتخاذ القرارات المستقبلية، ومع معدل دقة يبلغ 90%، كما يشير التقرير، يمكن للتعلم الآلي في Lavender أن يعزز عمليات القتل الصحيحة وغير الصحيحة، كما قال رايان لـ BI. وقال "نحن لا نعرف".
السماح للذكاء الاصطناعي باتخاذ القرار في الحرب
يمكن أن تشهد الحروب المستقبلية عمل الذكاء الاصطناعي جنبًا إلى جنب مع البشر لمعالجة كميات هائلة من البيانات واقتراح مسارات العمل المحتملة في خضم المعركة، ولكن هناك العديد من الاحتمالات التي يمكن أن تفسد مثل هذه الشراكة.
قد تكون البيانات المجمعة أكثر من أن يتمكن البشر من معالجتها أو فهمها، إذا كان برنامج الذكاء الاصطناعي يعالج كميات هائلة من المعلومات لإعداد قائمة بالأهداف المحتملة، فقد يصل إلى نقطة يصبح فيها البشر مرهقين بسرعة وغير قادرين على المساهمة بشكل هادف في صنع القرار.
هناك أيضًا إمكانية التحرك بسرعة كبيرة جدًا ووضع افتراضات بناءً على البيانات، مما يزيد من احتمالية ارتكاب الأخطاء، وكتب مستشار المجموعة العسكرية والمسلحة للجنة الدولية للصليب الأحمر روبن ستيوارت والمستشارة القانونية جورجيا هيندز عن مثل هذه المشكلة في أكتوبر 2023.
إعلان
"إحدى المزايا العسكرية المعلنة للذكاء الاصطناعي هي زيادة وتيرة اتخاذ القرار التي يمنحها المستخدم على خصمه. غالبًا ما تؤدي زيادة الوتيرة إلى مخاطر إضافية على المدنيين، ولهذا السبب فإن التقنيات التي تقلل من الوتيرة، مثل "الصبر التكتيكي"، وقالوا إنها تستخدم للحد من الخسائر في صفوف المدنيين.
وفي سعيهم للتحرك بسرعة، يمكن للبشر أن يرفعوا أيديهم عن عجلة القيادة، ويثقون في الذكاء الاصطناعي دون إشراف يذكر، وفقًا لتقرير مجلة +972 والمكالمات المحلية، تمت مراجعة الأهداف المختارة بواسطة الذكاء الاصطناعي لمدة 20 ثانية فقط، عادةً فقط للتأكد من أن القتل المحتمل كان ذكرًا، قبل التصريح بالضربة.
وتثير التقارير الأخيرة تساؤلات جدية حول مدى "تواجد الإنسان في الحلقة" أثناء عملية صنع القرار. وفقًا لسينغر، فهو أيضًا "توضيح محتمل لما يُعرف أحيانًا باسم" التحيز الآلي "، وهو موقف "يخدع فيه الإنسان نفسه في التفكير أنه نظرًا لأن الآلة قدمت الإجابة، فيجب أن تكون صحيحة."
وأضاف سينجر: "لذا، فبينما يكون الإنسان" في الحلقة "، فإنهم لا يقومون بالمهمة المفترضة منهم".
في أكتوبر، وجه الأمين العام للأمم المتحدة أنطونيو غوتيريس ورئيسة اللجنة الدولية للصليب الأحمر، ميريانا سبولجاريك، دعوة مشتركة مفادها أن الجيوش "يجب أن تتحرك الآن للحفاظ على السيطرة البشرية على استخدام القوة" في القتال.
وقالوا: "يجب الاحتفاظ بالسيطرة البشرية على قرارات الحياة والموت. إن الاستهداف الذاتي للبشر بواسطة الآلات هو خط أخلاقي يجب ألا نتجاوزه"، "يجب أن يحظر القانون الدولي الآلات التي تتمتع بالقدرة والسلطة التقديرية على إزهاق الأرواح دون تدخل بشري".
الجانب الأخر للذكاء الاصطناعي
ولكن على الرغم من وجود مخاطر، فإن الذكاء الاصطناعي قد يكون له العديد من الفوائد العسكرية، مثل مساعدة البشر على معالجة مجموعة واسعة من البيانات والمصادر من أجل السماح لهم باتخاذ قرارات مستنيرة، فضلا عن مسح مجموعة متنوعة من الخيارات لكيفية التعامل مع المواقف.
يمكن أن يكون التعاون الهادف "الإنساني في الحلقة" مفيدًا، ولكن في نهاية المطاف، يتعلق الأمر بالإنسان الذي يمسك بنهاية هذه العلاقة - وبعبارة أخرى، الاحتفاظ بالسلطة والسيطرة على الذكاء الاصطناعي، وقال اللواء المتقاعد ريان: "على مدى الوجود البشري برمته، كنا مستخدمين للأدوات والآلات"، "نحن أسياد الآلات، سواء كنت تقود طائرة، أو تقود سفينة أو دبابة، ولكن مع العديد من هذه الأنظمة المستقلة والخوارزميات الجديدة، قال إن الجيوش لن تستخدم الآلات، بل "الشراكة معها".
العديد من الجيوش ليست مستعدة لمثل هذا التحول. وكما كتب ريان وكلينت هينوت في تعليق لـ "حرب على الصخور" في وقت سابق من هذا العام، "في العقد المقبل، قد تدرك المؤسسات العسكرية وضعا حيث يفوق عدد الأنظمة غير المأهولة عدد البشر".
وكتبوا: "في الوقت الحاضر، تم تصميم التكتيكات والتدريب ونماذج القيادة للمؤسسات العسكرية للمؤسسات العسكرية التي هي في المقام الأول بشرية، ويمارس هؤلاء البشر سيطرة وثيقة على الآلات".
وقالوا: "إن تغيير التعليم والتدريب لإعداد البشر للمشاركة مع الآلات - وليس مجرد استخدامها - يعد تطورًا ثقافيًا ضروريًا ولكنه صعب". لكن هذا لا يزال عملاً قيد التقدم بالنسبة للعديد من الجيوش.
تم أضافة تعليقك سوف يظهر بعد المراجعة