باسل النجار - القاهرة - الجمعة 13 مارس 2026 11:43 صباحاً - حذّرت الصين من المخاطر المتزايدة لاستخدام الذكاء الاصطناعي في المجال العسكري، معتبرة أن توظيف هذه التكنولوجيا دون ضوابط وقواعد دولية واضحة قد يقود إلى عواقب كارثية تهدد مستقبل البشرية.
وأطلقت الحكومة الصينية تحذيراً شديد اللهجة بشأن استخدام الذكاء الاصطناعي في العمليات العسكرية، مشيرة إلى أن الخطر لا يقتصر على قدرته التدميرية، بل يمتد إلى غياب الأطر التنظيمية الدولية التي تحدد كيفية استخدامه.
وقال مسؤولون في وزارة الخارجية الصينية خلال مؤتمر دولي حول الأمن التكنولوجي إن الخوارزميات المستخدمة في الأسلحة ذاتية التشغيل قد تتخذ قرارات قاتلة دون تدخل بشري، بحسب ما نقلته صحيفة لابانجورديا الإسبانية.
الذكاء الاصطناعي والنزاعات العسكرية
وأشارت بكين إلى أن التطورات الجارية في الشرق الأوسط تعكس الأهمية المتزايدة للذكاء الاصطناعي في النزاعات العسكرية، خاصة في تحليل المعلومات واختيار الأهداف، إلا أن موثوقية هذه الأنظمة ودورها في اتخاذ قرارات الهجوم ما تزال محل جدل واسع بين الخبراء.
ويتفق متخصصون في الاستراتيجية العسكرية على أن مصدر القلق الأكبر يتمثل في ما يعرف بأنظمة الأسلحة الذاتية القاتلة، القادرة على تحديد الأهداف وتنفيذ الهجمات دون أوامر مباشرة من مشغل بشري.
وفي هذا السياق، أوضح المحلل العسكري الصيني والعقيد المتقاعد تشو بو أن دمج الذكاء الاصطناعي في الطائرات المسيّرة والصواريخ والمنصات القتالية قد يقلّص زمن اتخاذ القرار إلى أجزاء من الألف من الثانية، ما يزيد احتمالات وقوع أخطاء كارثية.
دعوات لتنظيم دولي
من جانبه، أكد المتحدث باسم وزارة الخارجية الصينية لين جيان أن استخدام الذكاء الاصطناعي بطريقة غير مسؤولة في المجال العسكري قد يؤدي إلى نتائج كارثية، محذراً من أن غياب القواعد الواضحة قد يدفع العالم إلى نمط جديد من الحروب تهيمن عليه الآلات.
وأضاف أن «الآلات يجب ألا تقرر مصير البشر»، داعياً المجتمع الدولي إلى التحرك سريعاً لوضع قواعد تمنع تحول الخوارزميات إلى عنصر حاسم في تقرير مصير الحروب.
كما أشار خبراء إلى أن غياب الشفافية في خوارزميات ما يُعرف بـ«الصندوق الأسود» يجعل من الصعب فهم الأسباب التي تدفع الأنظمة الآلية لاتخاذ قرارات بإطلاق النار، ما يخلق فراغاً قانونياً في تحديد المسؤولية، إذ لا يمكن مساءلة آلة عن انتهاك قوانين الحرب.
وفي ضوء ذلك، دعت بكين إلى وضع قواعد واتفاقيات دولية متعددة الأطراف تحد من استخدام الأسلحة الذاتية القاتلة، وتضمن بقاء القرارات الحاسمة في ساحات القتال تحت السيطرة البشرية.
وتأتي هذه التحذيرات في وقت يتصاعد فيه الجدل عالمياً حول تنظيم استخدام الذكاء الاصطناعي عسكرياً، وسط مخاوف من أن التطور السريع لهذه التكنولوجيا قد يفتح الباب أمام سباق تسلح جديد بين القوى الكبرى.
للمزيد تابع
الخليج 24 على: فيسبوك | إكس | يوتيوب | إنستغرام | تيك توك
