حذّرت الصين من أن استخدام الذكاء الاصطناعي في المجال العسكري قد يؤدي إلى نهاية كارثية أشبه بنهاية العالم، مشيرة إلى أن الخطر لا يكمن فقط في القدرة التدميرية لهذه التكنولوجيا، بل أيضاً في غياب الأطر التنظيمية الدولية التي تحد من استخدامها.
وأطلقت الحكومة الصينية تحذيرا شديد اللهجة بشأن المخاطر المرتبطة بتوظيف الذكاء الاصطناعي فى العمليات العسكرية، مؤكدة أن تطبيقه دون ضوابط و قوانين دولية قد يقود إلى سيناريو كارثى.
وقال مسئولون فى وزارة الخارجية إلى الخورازميات المستخدمة فى الأسلحة ذاتية التشغيل قد تتخذ قرارات قاتلة من دون تدخل بشرى، وذلك خلال مؤتمر دولي حول الأمن التكنولوجي نقلته صحيفة لابانجورديا الإسبانية.
أهمية الـ AI فى النزاعات العسكرية
وأشارت إلى أن الحرب فى الشرق الأوسط تظهر الأهمية المتزايدة للذكاء الاصطناعى فى النزاعات العسكرية خصوصا فى تحليل المعلومات واختيار الأهداف، إلا أن مدى موثوقيته ودوره في اتخاذ قرارات الهجوم ما زالا محل جدل واسع بين الخبراء.
ويتفق متخصصون في الاستراتيجية العسكرية على أن القلق الأكبر يتعلق بما يُعرف بـ أنظمة الأسلحة الذاتية القاتلة، القادرة على تحديد الأهداف وتنفيذ الهجمات من دون أمر مباشر من مشغّل بشري.
وأوضح المحلل العسكري الصيني والعقيد المتقاعد تشو بو أن دمج الذكاء الاصطناعي في الطائرات المسيّرة والصواريخ والمنصات القتالية يمكن أن يقلّص زمن اتخاذ القرار إلى أجزاء من الألف من الثانية، ما يزيد خطر وقوع أخطاء كارثية.
غياب قواعد دولية لتنظيم الاستخدام
وترى السلطات الصينية أن المشكلة لا تتعلق فقط بقدرة هذه الأنظمة على التدمير، بل أيضاً بغياب قواعد دولية واضحة لتنظيم استخدامها.
من جهته، قال المتحدث باسم وزارة الخارجية الصينية لين جيان، إذا استُخدم الذكاء الاصطناعي بطريقة غير مسؤولة في المجال العسكري، فقد تكون النتائج كارثية. يجب أن نمنع تحول هذه التكنولوجيا إلى أداة قد تتسبب في نهاية مدمرة للبشرية.
وأضاف أن غياب القواعد الواضحة قد يدفع العالم إلى شكل جديد من الحروب تهيمن عليه الآلات، مشددا على أن الآلات يجب ألا تقرر مصير البشر، داعياً المجتمع الدولي إلى التحرك سريعاً لمنع تحول الخوارزميات إلى من يحدد مصير الحروب.
غياب الشفافية
كما أشار خبراء إلى أن غياب الشفافية في خوارزميات الصندوق الأسود يجعل من الصعب معرفة سبب اتخاذ آلة ما قرار إطلاق النار، ما يخلق فراغاً قانونياً في تحديد المسؤولية. ويؤكد بعض الباحثين أنه لا يمكن محاسبة آلة على انتهاك قوانين الحرب.
وفي هذا السياق، تدعو بكين إلى وضع قواعد دولية تحد من استخدام الأسلحة الذاتية القاتلة وتضمن بقاء القرارات الحاسمة في ساحة المعركة تحت السيطرة البشرية.
تأتي هذه التحذيرات في وقت يتصاعد فيه الجدل العالمي حول تنظيم استخدام الذكاء الاصطناعي في المجال العسكري، حيث يرى خبراء ومراكز أبحاث أمنية أن التطور السريع لهذه التكنولوجيا قد يؤدي إلى سباق تسلح جديد بين القوى العالمية.
وفي ختام تصريحاتها، جددت الصين دعوتها إلى إبرام اتفاقيات دولية متعددة الأطراف تفرض قيوداً على استخدام الأسلحة الذاتية وتضمن إشراف الإنسان على القرارات القتالية.