أول وكالة اخبارية خاصة انطلقت في الأردن

تواصل بلا حدود

أخر الأخبار
الأرصاد : أجواء باردة تسود المملكة وتحذيرات من الصقيع ترمب يصادق على إلغاء عقوبات قيصر على سورية ولي العهد للنشامى: رفعتم معنويات الأردن وأبدعتم… وفخورون بكم خطوة بخطوة الاتحاد الآسيوي: الرؤوس مرفوعة يا نشامى رسميا .. فيفا يعلن تقاسم السعودية والإمارات المركز الثالث في كأس العرب الأمن العام للاردنيين : مدافئ الشموسة أداة قتل داخل منازلكم - صور السلامي: لا يمكن مؤاخذة أبو ليلى أو غيره على الأخطاء النشامى ينالون 6 ملايين و80 ألف دولار جائزة وصافة كأس العرب 2025 مسؤول روسي: الأسد حصل على لجوء إنساني ولن نُسلِّمه إشادات عربية واسعة بإنجاز النشامى التاريخي في كأس العرب 2025 الإعلامي الأردني لطفي الزعبي يتحدث عن أداء حكم نهائي كأس العرب العفو الدولية: الابادة الجماعية في غزة مستمرة .. وكارثة الفيضانات كان يمكن تفاديها وزير التربية: إرسال مسودة قانون وزارة التعليم وتنمية الموارد البشرية لمجلس النواب الشهر المقبل وزير الاتصال الحكومي يشيد بأداء النشامى في بطولة كأس العرب 2025 فيديو - سلامي: ولي العهد أبلغني أن الملك سيمنحني الجنسية الأردنية البوتاس العربية" تهنّئ المنتخب الوطني لكرة القدم بحصوله على لقب وصيف كأس العرب الصفدي للنشامى: كفيتوا ووفيتوا ميسي ويامال وجهاً لوجه في قطر ولي العهد يتوج علي علوان بلقب هداف كأس العرب 2025 رئيس الوزراء للنشامى: أنتم رائعون ومبدعون وصنعتم أجمل نهائي عربي
الصفحة الرئيسية علوم و تكنولوجيا تحذيرات من أسلحة ذكاء اصطناعي جديدة قادرة على...

تحذيرات من أسلحة ذكاء اصطناعي جديدة قادرة على إفناء العالم

تحذيرات من أسلحة ذكاء اصطناعي جديدة قادرة على إفناء العالم

19-11-2025 05:00 PM

زاد الاردن الاخباري -

أكد أمانديب جيل وكيل الأمين العام للأمم المتحدة، والمبعوث الخاص المعني بالتكنولوجيا، أن التطوير والاستخدام غير المنضبط للذكاء الاصطناعي قد يؤدي إلى ظهور أسلحة ذات درجة غير مقبولة من الاستقلالية.

وقال جيل، إن الذكاء الاصطناعي هو تقنية قوية يمكنها أن تسرع تطوير أنظمة الأسلحة الحالية، قد نرى في المستقبل أنظمة تتميز بدرجة استقلالية أعلى من الأنظمة الآلية الحالية.

ووفقاً للمسؤول الأممي، ينبغي للحكومات أن تحافظ على ميزة السيطرة البشرية على الأسلحة، وضمان مسؤولية ومساءلة العسكريين الذين يتخذون قرار "اختيار الأهداف".

وهنا يبرز السؤال، كيف يمكن العمل على ألا تصبح هذه التقنية عاملاً آخر مزعزعاً للاستقرار؟ وما مخاطر الاستخدام غير المنضبط للتكنولوجيا العسكرية؟ وكيف يمكن تجنب مخاطرها، وما هي قوتها التدميرية والعسكرية؟

تحدي مركب
من جانبه، يقول الدكتور محمد محسن رمضان، رئيس وحدة الذكاء الاصطناعي والأمن السيبراني بمركز العرب للأبحاث والدراسات لـ" العربية.نت/الحدث.نت: إن تحذير الأمم المتحدة ليس مجرد تصريح سياسي، بل إنذار مبكر بمرحلة جديدة من سباق تسلّح يعتمد على خوارزميات قادرة على اتخاذ قرار فتاك بصورة مستقلة، والتحوّل نحو أسلحة ذاتية القرار يمثل تحدياً مركباً يجمع بين الأمن السيبراني، والتكنولوجيا العسكرية، والقانون الدولي الإنساني، واستقرار النظام الدولي.

وتابع: أولاً التهديد الحقيقي يكمن في طبيعة الذكاء الاصطناعي نفسه، فالذكاء الاصطناعي المستخدم في أنظمة التسليح الحديثة لا يعتمد فقط على البرمجة المباشرة، بل على شبكات عصبية تتعلم ذاتياً وخوارزميات تتخذ قرارات في بيئة غير مستقرة وأنظمة استشعار تعتمد على بيانات قد تكون قابلة للتضليل.

أداة هجومية لصالح الخصم
وأضاف أنه مع الانتقال من نماذج "الدعم البشري" إلى نماذج "الاستقلالية المتزايدة"، يظهر خطر وجود سلاح قادر على اتخاذ قرار هجومي دون رقابة بشرية دقيقة، وهو ما قد يؤدي إلى نتائج عسكرية لا تتوافق مع النية السياسية أو قواعد الاشتباك، ثانياً المخاطر التقنية والأمنية المحتملة في الأسلحة ذاتية القرار، وقابلية الاختراق (Cyber Intrusions)، حيث إن المنظومات القتالية الذكية تعتمد كلياً على البنية الرقمية من خوارزميات التحكم ونظم الملاحة وقواعد البيانات وشبكات الاتصال.

وقال إن أي اختراق أو تلاعب بهذه المكونات قد يؤدي إلى تغيير مسار السلاح وإعادة توجيهه لقتل أهداف مدنية وتعطيل منظومة الأمان الذاتية، وتنفيذ عمليات هجومية غير مصرح بها، وبالتالي يتحول السلاح من أداة دفاعية إلى منصة هجومية لصالح الخصم.

فقدان السيطرة البشرية
وأوضح رمضان، أنه بالنسبة للهجمات التضليلية (Adversarial Manipulation) يمكن للخصوم خداع أنظمة الذكاء الاصطناعي عبر صور معدّلة بخوارزميات دقيقة وإشارات إلكترونية مُضلّلة وبيانات كاذبة تدخل للنظام أثناء التشغيل، وقد ثبت علمياً أن الخوارزميات يمكن أن تتخذ قرارات خاطئة بنسبة كبيرة أمام تغييرات طفيفة غير مرئية للعين البشرية، موضحاً أنه هناك ما يسمى بـ"فقدان السيطرة البشرية" (Loss of Human Oversight).

وكشف رمضان أن السلاح ذاتي القرار يختصر دورة في اتخاذ القرار من: "رصد وتحليل وتقدير الموقف والقرار والإطلاق" إلى مجرد قرار آلي لحظي، هذا التحوّل قد يؤدي إلى تصعيد غير مقصود وضرب أهداف غير مصرح بها وفقدان القدرة على التدخل أثناء حدوث خلل تشغيلي وقرارات هجومية مخالفة للقانون الدولي الإنساني.

وأضاف: هناك محور هام وهو فجوة المساءلة القانونية (Accountability Gap) فعندما يُخطئ السلاح الذكي في التمييز بين مقاتل ومدني، يظل السؤال قائماً: من المسؤول، القائد العسكري أم الشركة المطورة أم المُبرمج؟ أم النظام ذاته؟ وهذه الفجوة تمثل تهديداً مباشراً لمنظومة العدالة الدولية.

حظر الأسلحة المستقلة
ويوصي الدكتور محسن رمضان: بضرورة الإبقاء على شرط "السيطرة البشرية الكاملة" (Human-in-the-loop) فلا بد من أن يبقى الإنسان هو الجهة صاحبة القرار النهائي في استخدام القوة المميتة، من خلال مراجعة الإحداثيات والتحقق من طبيعة الهدف وتفعيل الإطلاق يدوياً وإمكانية الإيقاف قبل التنفيذ، كما يجب وضع إطار دولي ملزم لتنظيم الأسلحة ذاتية القرار، فيما يؤكد دعمه للتوجه الأممي لحظر الأسلحة التي تتخذ قراراً مستقلاً بالتدمير بحلول 2026، مع ضرورة اعتماد معايير موحدة لدرجات الاستقلالية وإنشاء آليات تفتيش دولية وتسجيل الأنظمة الذكية العسكرية في قاعدة بيانات أممية.

من جانبه يقول اللواء عادل العمدة، المحاضر بالأكاديمية العسكرية للدراسات العليا والاستراتيجية: إن هذه الأسلحة من النتائج السلبية للتطور التكنولوجي، لأن القرار يتطلب تقدير موقف وهنا لا توجد الظروف والأدوات والآليات التي تجيز اتخاذ هذا القرار، فآلية تقدير الموقف مفقودة في الأسلحة ذات التقنية العالية من الذكاء الاصطناعي.

وأشار إلى أنه يتفق مع المطالبات للأمم المتحدة باتخاذ قرار بتحريم هذا الأمر وعدم إجازته، فيجب أن يكون هناك عدم استقلالية وتقييد كامل لهذه الأسلحة، لأن الحرية الكاملة ستؤدي إلى خسائر كبيرة قد يترتب عليها فناء العالم، فالأسلحة الذكية تمثل خطورة على المجتمعات البشرية والشعوب وعلى الاستقرار في العالم كله.










تابعونا على صفحتنا على الفيسبوك , وكالة زاد الاردن الاخبارية

التعليقات حالياً متوقفة من الموقع