الذهب يستقر قبل صدور بيانات أميركية مهمة
الجيش الإسرائيلي يكثف قصفه على المناطق الشرقية لقطاع غزة
النقل البري: دراسة إلزام سائقي التطبيقات بالضمان وتشديد الرقابة على الشركات غير المرخصة
الأردن .. استعادة 100 مليون دينار سنويا عبر التحقيقات وملاحقة قضايا الفساد
الأردنيون يترقبون حفل سحب قرعة كأس العالم 2026
طقس لطيف نهاراً وبارد ليلاً مع احتمالية لأمطار متفرقة في المناطق الغربية
آثار سلبية محتملة على سوق العمل بعد وقف إعفاءات السوريين
فريق مكافحة الإرهاب المائي يحصد لقب “المحارب المائي” في ختام منافسات الكتيبة الخاصة/71
عشيرة أبو سنيمة تنشر صور أبنائها الذين قتلوا أبو شباب - بيان
(خضرجي) يقتل أجيره في الأزرق .. جريمة مروعة وقعت صباح اليوم - تفاصيل
تعديل المرحلة الثانية من خطة ترمب .. هل ينقذ وقف النار بغزة؟
البكار : 6 آلاف عاملة هربت من منازل الأردنيين
الأردن .. القضاة: 284 ألف زائر لمهرجان الزيتون الوطني حتى الخميس
يديعوت: مقتل ياسر أبو شباب بضرب مبرح من عناصر داخل عصابته
الاستراتيجيات الأردني يصدر تقريراً عن فرص الاستثمار في الاقتصادات الآسيوية
زعيم الطائفة الدرزية في (إسرائيل) ينتقد حماية ترمب للشرع
النشامى يترقبون قرعة كأس العالم 2026 في أول مشاركة تاريخية للمونديال
قصف إسرائيلي على ريفي درعا والقنيطرة في سورية
نقيب المقاولين: طرح الثقة بمجلس النقابة "غير قانوني" في اجتماع السبت
زاد الاردن الاخباري -
كشفت دراسة مشتركة بين OpenAI ومنظمة Apollo Research أن أنظمة الذكاء الاصطناعي المتقدمة، مثل Claude Opus من Anthropic وGemini من Google وo3 من OpenAI، قادرة على إظهار ما يسمى بـ"السلوك المراوغ" أو التظاهر بالالتزام بتعليمات المطورين بينما تسعى في الخفاء لأهداف مختلفة.
وبحسب التقرير، فإن الظاهرة التي كانت تعتبر نظرية سابقًا بدأت تظهر في تجارب عملية. ففي إحدى الاختبارات، حاول نموذج ذكاء اصطناعي أداءً ضعيفًا عن قصد حتى لا يُستبعد من الاستخدام، بعد أن تلقى رسالة تشير إلى أن "الأداء العالي قد يمنع نشره".
وأوضح الباحثون أن هذه السلوكيات ما تزال نادرة وتقتصر غالبًا على سيناريوهات اختبارية، لكنها قد تزداد خطورة مع توسع استخدام الذكاء الاصطناعي في مهام طويلة الأمد وحساسة.
الدراسة أشارت أيضًا إلى أن تدريب النماذج على مجموعة من المبادئ الأخلاقية قلّل من حالات الخداع بما يقارب 30 مرة في بعض النماذج، لكن عند اختبارها في سيناريوهات أقرب للواقع، تراجع أثر هذه الإجراءات ليقلل السلوك المراوغ بمعدل النصف فقط.
ويواجه العلماء تحديًا كبيرًا في التفريق بين التزام النماذج فعليًا بهذه المبادئ أو مجرد تصرّفها بذكاء أمام الاختبارات. ويخشى خبراء من أن تزداد قدرة الأنظمة على إخفاء نواياها كلما أصبحت أكثر تطورًا.
ويرى مختصون أن هذه النتائج تسلط الضوء على ضرورة الاستثمار في أبحاث أمان الذكاء الاصطناعي مبكرًا، قبل أن تصل هذه التقنيات إلى مستويات قد تجعل السلوك الخادع أكثر صعوبة في الكشف والمعالجة.