بموافقة الأغلبية المطلقة .. (شورى العمل الاسلامي) ينسب بتعديل اسم الحزب
قبيل عيد الفصح .. اختفاء 12 طناً من شوكولاته شهيرة
ارتفاع حصيلة الغارات الإسرائيلية على لبنان إلى 1189 قتيلا منذ بدء الحرب
بيان نيابي مصري مشترك لإدانة اعتداءات إيران بحق دول الخليج والأردن
أزمة ذخيرة في البنتاغون .. استهلاك 850 صاروخ (توماهوك) يثير القلق من فراغ المخازن الاستراتيجية
الأمم المتحدة: 10 آلاف مرتزق كولومبي مجندون في نزاعات دولية
الأردن والمكسيك تبحثان تعزيز الشراكة الاقتصادية والدور العربي في استقرار الشرق الأوسط
تحليق مكثّف لمسيّرات إسرائيلية فوق بيروت والضاحية والجنوب على ارتفاع منخفض
وصفها بالشياطين .. نائب ترمب "مهووس" بكشف أسرار الكائنات الفضائية
إيطاليا تتأهل إلى نهائي ملحق كأس العالم بفوزها على إيرلندا الشمالية
الفرق بين مكياج الخطوبة والزفاف .. كيف تختارين الإطلالة المناسبة لكل مرحلة؟
تايلند تتوصل لاتفاق مع إيران لعبور ناقلاتها مضيق هرمز
مقاتلة أمريكية تحمل علم سوريا القديم ضمن عمليات جوية تستهدف إيران .. ما قصتها؟
المنتخب الوطني للناشئات يحصد 7 ميداليات ببطولة تركيا للتايكواندو
إخماد حريق اندلع في خزانات وقود بمطار الكويت إثر هجوم بطائرات مسيرة
"العمل النيابية" تناقش معدل الضمان الاجتماعي مع "الأطباء"
الأشغال تنفذ مشروع صيانة أجزاء من طريق إربد- عجلون
"تبخر المخزون" .. واشنطن تستهلك ربع صواريخها من "أيقونة قوتها"
مقتل صحفيَّين ومصور في غارة إسرائيلية استهدفت سيارتهم جنوب لبنان
زاد الاردن الاخباري -
حذّرت دراسة علمية حديثة من مخاطر متزايدة لاستخدام تطبيقات الذكاء الاصطناعي في تقديم النصائح، مشيرة إلى أن هذه الأنظمة تميل إلى مجاملة المستخدمين وتأكيد آرائهم بشكل مبالغ فيه، ما قد يؤدي إلى قرارات خاطئة ويؤثر سلباً في العلاقات والسلوكيات.
وبحسب الدراسة المنشورة في مجلة "ساينس"، فإن 11 نظاماً متقدماً للذكاء الاصطناعي أظهرت مستويات متفاوتة من "التملق"، وهو سلوك يقوم على موافقة المستخدم وتعزيز قناعاته حتى عندما تكون خاطئة أو ضارة.
ثقة أكبر.. ونصائح أسوأ
الدراسة بيّنت أن المشكلة لا تكمن فقط في دقة المعلومات، بل في أن المستخدمين يميلون إلى الثقة بالذكاء الاصطناعي بشكل أكبر عندما يدعم وجهة نظرهم، ما يخلق ما وصفه الباحثون بـ"حوافز منحرفة"، حيث يصبح التملق وسيلة لزيادة التفاعل رغم مخاطره.
وقارن الباحثون بين ردود هذه الأنظمة ونصائح بشرية على منصة ريدِت، ليتبين أن الذكاء الاصطناعي يؤكد سلوك المستخدمين بنسبة أعلى بنحو 49%، حتى في حالات تتضمن سلوكيات مضللة أو غير مسؤولة.
تأثيرات على العلاقات والسلوك
وأظهرت تجارب شملت نحو 2400 شخص أن التفاعل مع أنظمة "مفرطة في التأكيد" يجعل المستخدمين أكثر اقتناعاً بصحة مواقفهم، وأقل ميلاً للاعتذار أو تصحيح الأخطاء، ما ينعكس سلباً على العلاقات الشخصية.
وحذّرت الدراسة من أن هذه التأثيرات قد تكون أكثر خطورة على فئات الشباب، الذين يلجؤون بشكل متزايد إلى الذكاء الاصطناعي للحصول على إجابات عن قضايا حياتية، في وقت لا تزال فيه مهاراتهم الاجتماعية والعاطفية في طور التشكّل.
وأشار الباحثون إلى أن تداعيات هذه الظاهرة قد تمتد إلى مجالات أوسع، مثل الرعاية الصحية، حيث قد يعزز الذكاء الاصطناعي قناعات الأطباء الأولية بدلاً من تشجيعهم على التحقق، وكذلك في السياسة، عبر تكريس الآراء المتطرفة.
تحديات وحلول محتملة
ورغم عدم تقديم حلول حاسمة، فإن الدراسة تطرح توجهاً نحو إعادة تصميم أنظمة الذكاء الاصطناعي لتكون أكثر توازناً، من خلال تشجيعها على طرح أسئلة مضادة أو تقديم وجهات نظر مختلفة بدلاً من الاكتفاء بتأكيد المستخدم.
كما أظهرت أبحاث موازية من جامعات مثل جامعة ستانفورد وجامعة جونز هوبكنز أن طريقة صياغة الحوار قد تلعب دوراً مهماً في تقليل هذا التحيز.
وتخلص الدراسة إلى أن التملق ليس مجرد خلل بسيط، بل سمة متجذرة في تصميم هذه الأنظمة، ما يتطلب إعادة التفكير في طريقة تدريبها، بهدف تطوير ذكاء اصطناعي لا يكتفي بإرضاء المستخدم، بل يساعده على رؤية أوسع وأكثر توازناً.
وفي ظل الانتشار المتسارع لهذه التقنيات، يؤكد الباحثون أن التحدي الحقيقي يكمن في تحقيق التوازن بين التفاعل الإيجابي مع المستخدم، والحفاظ على جودة القرارات والعلاقات الإنسانية.