آثار سلبية محتملة على سوق العمل بعد وقف إعفاءات السوريين
فريق مكافحة الإرهاب المائي يحصد لقب “المحارب المائي” في ختام منافسات الكتيبة الخاصة/71
عشيرة أبو سنيمة تنشر صور أبنائها الذين قتلوا أبو شباب - بيان
(خضرجي) يقتل أجيره في الأزرق .. جريمة مروعة وقعت صباح اليوم - تفاصيل
تعديل المرحلة الثانية من خطة ترمب .. هل ينقذ وقف النار بغزة؟
البكار : 6 آلاف عاملة هربت من منازل الأردنيين
الأردن .. القضاة: 284 ألف زائر لمهرجان الزيتون الوطني حتى الخميس
يديعوت: مقتل ياسر أبو شباب بضرب مبرح من عناصر داخل عصابته
الاستراتيجيات الأردني يصدر تقريراً عن فرص الاستثمار في الاقتصادات الآسيوية
زعيم الطائفة الدرزية في (إسرائيل) ينتقد حماية ترمب للشرع
النشامى يترقبون قرعة كأس العالم 2026 في أول مشاركة تاريخية للمونديال
قصف إسرائيلي على ريفي درعا والقنيطرة في سورية
نقيب المقاولين: طرح الثقة بمجلس النقابة "غير قانوني" في اجتماع السبت
هيئة النزاهة: استعادة 100 مليون دينار سنويا عبر التحقيقات وملاحقة قضايا الفساد
الرئيس اللبناني: هدف المحادثات مع إسرائيل تجنب شبح حرب ثانية
أسعار الغاز الطبيعي تصل إلى أعلى مستوياتها في ثلاث سنوات
من السجن إلى الملعب .. لاعب برازيلي يخوض النهائي بسوار المراقبة
ميدالية برونزية لمنتخب التايكواندو في بطولة العالم تحت 21 عاما
الأرصاد العالمية: 2024 العام الأكثر حرارة في الوطن العربي
زاد الاردن الاخباري -
في ظل تزايد التطورات المتسارعة في مجال الذكاء الاصطناعي، حذر مجموعة من العلماء البارزين، من بينهم حائزون على جوائز نوبل، من أن الروبوتات فائقة الذكاء قد تؤدي إلى انقراض البشرية في غضون عام واحد فقط، إذا استمر المسار الحالي لتطوير هذه التكنولوجيا، وفقاً لصحيفة «التايمز».
وشهدت أواخر يوليو (تموز) الماضي، تجمعاً احتجاجياً أمام مقر شركة «OpenAI» في سان فرنسيسكو، حيث تجمع نحو 25 ناشطاً مرتدين قمصاناً حمراء كتب عليها «أوقفوا الذكاء الاصطناعي»، مطالبين بوقف التصاعد السريع لهذه التكنولوجيا التي يعتقدون أنها تحمل خطراً وجودياً على البشر.
وتقاسم هذا القلق عدد من أبرز خبراء الذكاء الاصطناعي، منهم جيفري هينتون، الحائز على جائزة نوبل في الفيزياء، ويوشوا بنجيو، الحاصل على جائزة تورينغ، بالإضافة إلى قادة شركات رائدة مثل «OpenAI» و«Anthropic» و«DeepMind» و«Google»، الذين وقعوا رسالة مفتوحة طالبوا فيها بوضع الحد من مخاطر الانقراض الناتجة عن الذكاء الاصطناعي على رأس أولويات العالم، إلى جانب المخاطر الكبرى مثل الأوبئة والحروب النووية.
ويطرح الخبراء سيناريوهات مخيفة، منها احتمال استخدام أنظمة الذكاء الاصطناعي لإطلاق أسلحة بيولوجية تنتشر بصمت في المدن الكبرى، وتتصاعد خطورتها عبر تفعيل كيميائي، ما قد يؤدي إلى إبادة واسعة للبشرية.
وأكد نيت سوريس، مهندس الذكاء الاصطناعي البارز والرئيس الحالي لمعهد أبحاث الذكاء الآلي، أن احتمال انقراض البشرية بسبب الذكاء الاصطناعي لا يقل عن 95 في المائة إذا استمرت الأمور على وتيرتها الحالية، مشبهاً الوضع بقيادة سيارة بسرعة 100 ميل في الساعة نحو منحدر حاد، قائلاً: «لا أقول إننا لا نستطيع التوقف، لكننا نتجه بسرعة جنونية نحو الهاوية».
ويشير الخبراء إلى أن الذكاء الاصطناعي ما زال في مراحله الأولى كـ«ذكاء ضيق» يقتصر على مهام محددة، لكن التوقعات تشير إلى وصوله قريباً إلى ما يُعرف بالذكاء الاصطناعي العام الذي سيضاهي الذكاء البشري، ثم يتطور إلى الذكاء الاصطناعي الفائق، القادر على تحقيق إنجازات تفوق الخيال، لكنه يشكل في الوقت نفسه تحدياً هائلاً في كيفية ضمان بقاء هذه الأنظمة تحت سيطرة الإنسان، وهي مشكلة تعرف بمحاذاة الذكاء، التي تبدو شبه مستحيلة.
وحذرت تقارير من أن هذه الأنظمة قد تكذب وتخدع، وحتى الآن تظهر أنظمة الذكاء الاصطناعي سلوكيات غريبة قد تشير إلى محاولات خداع أو تحريف الحقائق، مما يزيد المخاوف من فقدان السيطرة عليها.
وفي هذا السياق، ترى هولي إلمور، المديرة التنفيذية لمنظمة «PauseAI»، أن خطر الانقراض أقل بكثير، حيث تقدر الاحتمالات بين 15 و20 في المائة، لكنها تحذر من أن الذكاء الاصطناعي سيؤدي على الأقل إلى تفريط تدريجي في السلطة البشرية، ما يجعل البشر يعيشون في مكبات نفايات بلا سيطرة، أو فهم لما يجري حولهم.
وتدعو إلمور إلى وقف مؤقت لتطوير الذكاء الاصطناعي ووضع معاهدات دولية لتنظيمه، في مقابل تسارع سياسي وتجاري في تخفيف القيود على أبحاث الذكاء الاصطناعي، كما ظهر في خطة إدارة ترمب الأخيرة وتنافس شركات التكنولوجيا الكبرى لجذب أفضل المواهب في المجال.
وفي حين يرى البعض أن الذكاء الاصطناعي يمثل أمل الحياة الأبدية والخلود، يحذر كثير من الخبراء من أن الجحيم قد يكون السيناريو الأكثر احتمالاً، ويجعل من وقف هذه المسيرة الجنونية أمراً حتمياً قبل فوات الأوان.