آثار سلبية محتملة على سوق العمل بعد وقف إعفاءات السوريين
فريق مكافحة الإرهاب المائي يحصد لقب “المحارب المائي” في ختام منافسات الكتيبة الخاصة/71
عشيرة أبو سنيمة تنشر صور أبنائها الذين قتلوا أبو شباب - بيان
(خضرجي) يقتل أجيره في الأزرق .. جريمة مروعة وقعت صباح اليوم - تفاصيل
تعديل المرحلة الثانية من خطة ترمب .. هل ينقذ وقف النار بغزة؟
البكار : 6 آلاف عاملة هربت من منازل الأردنيين
الأردن .. القضاة: 284 ألف زائر لمهرجان الزيتون الوطني حتى الخميس
يديعوت: مقتل ياسر أبو شباب بضرب مبرح من عناصر داخل عصابته
الاستراتيجيات الأردني يصدر تقريراً عن فرص الاستثمار في الاقتصادات الآسيوية
زعيم الطائفة الدرزية في (إسرائيل) ينتقد حماية ترمب للشرع
النشامى يترقبون قرعة كأس العالم 2026 في أول مشاركة تاريخية للمونديال
قصف إسرائيلي على ريفي درعا والقنيطرة في سورية
نقيب المقاولين: طرح الثقة بمجلس النقابة "غير قانوني" في اجتماع السبت
هيئة النزاهة: استعادة 100 مليون دينار سنويا عبر التحقيقات وملاحقة قضايا الفساد
الرئيس اللبناني: هدف المحادثات مع إسرائيل تجنب شبح حرب ثانية
أسعار الغاز الطبيعي تصل إلى أعلى مستوياتها في ثلاث سنوات
من السجن إلى الملعب .. لاعب برازيلي يخوض النهائي بسوار المراقبة
ميدالية برونزية لمنتخب التايكواندو في بطولة العالم تحت 21 عاما
الأرصاد العالمية: 2024 العام الأكثر حرارة في الوطن العربي
زاد الاردن الاخباري -
عندما أُعلن الشهر الماضي عن أن نموذج الذكاء الاصطناعي «كلود»، التابع لشركة «أنثروبيك»، قد لجأ إلى ممارسة الابتزاز وأساليب أخرى للحفاظ على ذاته قائمة وتجنب إغلاقه، دقّ ناقوس الخطر في مجتمع الذكاء الاصطناعي.
ويقول باحثو أنثروبيك إن جعل نماذج الذكاء الاصطناعي تتصرف بشكل سيء هو جزء من جعلها أكثر أمانًا.
ومع ذلك، أثارت تصرفات كلود السؤال التالي، هل من سبيل لإيقاف الذكاء الاصطناعي بمجرد تجاوزه عتبة الذكاء البشري، أو ما يُسمى بالذكاء الفائق؟.
وبحسب "شبكة CNBC"، فإن الذكاء الاصطناعي، بمراكز بياناته المترامية الأطراف وقدرته على صياغة محادثات معقدة، قد تجاوز بالفعل مرحلة الأمان المادي أو مرحلة "زر الإيقاف" -أي فكرة إمكانية فصله ببساطة كوسيلة لإيقافه عن امتلاك أي قوة.
والقوة الأكثر أهمية، وفقًا لرجل يُعتبر "عراب الذكاء الاصطناعي"، هي قوة الإقناع، عندما تصل التكنولوجيا إلى نقطة معينة، نحتاج إلى إقناع الذكاء الاصطناعي بأن مصلحته القصوى هي حماية البشرية، مع الحرص على منعه من إقناع البشر بخلاف ذلك.
ويقول الباحث في جامعة تورنتو، جيفري هينتون، الذي عمل في غوغل حتى عام ٢٠٢٣ وتركها لرغبته في التحدث بحرية أكبر عن مخاطر الذكاء الاصطناعي، "إذا أصبح أكثر ذكاءً منا، فسيتفوق علينا في الإقناع، أما إذا لم يكن مسيطرًا، فكل ما يجب فعله هو الإقناع".
وأضاف مقدما أمثلة "لم يقم ترامب بغزو الكابيتول، لكنه أقنع الناس بذلك"، وتابع هينتون، "في مرحلة ما، ستصبح المسألة أقل تركيزًا على إيجاد زر إيقاف للذكاء الاصطناعي، وأكثر تركيزًا على قوى الإقناع".
وقال هينتون إن الإقناع مهارة سيزداد إتقان الذكاء الاصطناعي لها، وقد لا تكون البشرية مستعدة لذلك. وأضاف: "لقد اعتدنا أن نكون أذكى الكائنات على الإطلاق".
ووصف هينتون سيناريو يُعادل فيه البشر طفلًا في الثالثة من عمره في حضانة، يقوم بتشغيل مفتاح كبير.
ويطلب منك الأطفال الآخرون في الثالثة من العمر إطفاءه، لكن يأتي الكبار ويخبرونك أنك لن تضطر أبدًا إلى فعلا أشياء لم تكن تحبها مثل تناول البروكلي مرة أخرى إذا تركت المفتاح قيد التشغيل.
وقال، "علينا أن نواجه حقيقة أن الذكاء الاصطناعي سيصبح أذكى منا".
وأضاف، "أملنا الوحيد هو أن نجعلهم لا يرغبون في إيذائنا، إذا أرادوا إيذاءنا، فقد انتهى أمرنا، علينا أن نجعلهم خيرين، هذا ما يجب أن نركز عليه".
وهناك بعض أوجه التشابه مع كيفية تعاون الدول لإدارة الأسلحة النووية والتي يمكن تطبيقها على الذكاء الاصطناعي، لكنها ليست مثالية.
وهنا قال هينتون، "الأسلحة النووية جيدة فقط لتدمير الأشياء، لكن الذكاء الاصطناعي ليس كذلك، يمكن أن يكون قوة هائلة للخير والشر على حد سواء".
ويمكن أن تكون قدرته على تحليل البيانات في مجالات مثل الرعاية الصحية والتعليم مفيدة للغاية، وهو ما يقول إنه سيزيد من تركيز قادة العالم على التعاون لجعل الذكاء الاصطناعي مفيدًا ووضع ضمانات.
وقال هينتون، "لا نعلم إن كان ذلك ممكنًا، ولكن سيكون من المحزن أن تنقرض البشرية لأننا لم نكلف أنفسنا عناء البحث".
ويعتقد أن هناك احتمالًا كبيرًا يتراوح بين 10% و20% أن يتولى الذكاء الاصطناعي زمام الأمور إذا لم يجد البشر طريقة لجعله مفيدًا.
إجراءات الحماية قد تكون غير مجدية
ويقول الخبراء إنه يمكن تطبيق إجراءات حماية أخرى للذكاء الاصطناعي، لكن الذكاء الاصطناعي سيبدأ أيضًا بتدريب نفسه عليها.
بمعنى آخر، يصبح كل إجراء أمان يُطبق بمثابة بيانات تدريب للتحايل على القيود، مما يُغير ديناميكية التحكم.
ويقول ديف ناغ، مؤسس منصة الذكاء الاصطناعي الوكيل QueryPal، "إن مجرد بناء آليات إيقاف التشغيل يُعلّم هذه الأنظمة كيفية مقاومتها".
وبهذا المعنى، سيتصرف الذكاء الاصطناعي كفيروس يتحور ضد لقاح، ويضيف ناغ، "إنه أشبه بالتطور السريع، لم نعد ندير أدوات سلبية، بل نتفاوض مع جهات تُنمذج محاولاتنا للسيطرة عليها ونتكيف وفقًا لذلك".
وهناك تدابير أكثر صرامة مُقترحة لوقف الذكاء الاصطناعي في حالات الطوارئ.
على سبيل المثال، هجوم النبض الكهرومغناطيسي (EMP)، والذي يتضمن استخدام الإشعاع الكهرومغناطيسي لتدمير الأجهزة الإلكترونية ومصادر الطاقة.
كما نوقشت فكرة قصف مراكز البيانات وقطع شبكات الكهرباء على أنها ممكنة تقنيًا، لكنها تُمثل حاليًا مفارقة عملية وسياسية.
وذلك لأن أولاً، يتطلب التدمير المنسق لمراكز البيانات ضربات متزامنة في عشرات الدول، ويمكن لأي منها رفض ذلك وتحقيق ميزة استراتيجية هائلة.
ويقول إيغور ترونوف، مؤسس شركة أتلانتكس الناشئة في مجال الذكاء الاصطناعي، أن "تفجير مراكز البيانات ضرب من الخيال العلمي، لكن في العالم الواقعي، لن تكون أخطر أنظمة الذكاء الاصطناعي في مكان واحد، بل ستكون في كل مكان وفي اللا مكان، متداخلة في نسيج الأعمال والسياسة والأنظمة الاجتماعية، هذه هي نقطة التحول التي يجب أن نتحدث عنها حقًا".