أول وكالة اخبارية خاصة انطلقت في الأردن

أولاً.. وبكل التفاصيل

أخر الأخبار
3 دقائق يومياً فقط .. روتين بسيط لرقبة مشدودة ومظهر أكثر شباباً قبل العيد السيارات الإنجليزية .. هل تخسر معركة البقاء في ملعبها التاريخي؟ تجربتي مع الكمون لانتفاخ المعدة وكيف اصبح روتينا يوميا لتحسين الهضم الدولار يتجه لأكبر مكاسب أسبوعية في شهرين لماذا دخل وفد ترمب الصين دون هواتف شخصية؟ لماذا يسيطر القلق من فيروس هانتا على الناس رغم تطمينات الخبراء؟ أمين عام وزارة الصحة يتفقد مدينة الحجاج ويعزز جاهزية الخدمات الصحية الدبلوماسية الرقمية .. كيف تحولت سفارات إيران إلى منصات تأثير عالمي؟ خمسة أسباب تجعل الجوز أساسيا لنمط حياة صحي الصيام المتقطع .. دراسة جديدة تربطه بأضرار صحية والأمراض المزمنة الأردن ولاتفيا يعززان التعاون الدبلوماسي ويوقعان اتفاقيات مشتركة مطاردة عميلة أميركية سابقة متهمة بالتجسس لإيران هل جربت يوماً قهوة الكركم .. إليك أبرز فوائدها الصحية روسيا تطالب بفتح مضيق هرمز أمام حركة النفط والغاز عراقجي يهاجم الإمارات مجددا أقوى المسلسلات التركية في 2026 بين الأكشن والرومانسية استشهاد طفل فلسطيني برصاص الاحتلال الإسرائيلي جنوب نابلس بن غفير: لدينا خطة للاستيطان في لبنان وتهجير سكان غزة والضفة الدفاع المدني يتعامل مع 1671 حالة إسعافية خلال 24 ساعة الماضية بين طوابير المساعدات وتجاهل ترمب .. حرب إيران تفاقم أزمات الأمريكيين
الصفحة الرئيسية من هنا و هناك دراسة تحذر: الذكاء الاصطناعي (يجاملك) على حساب...

دراسة تحذر: الذكاء الاصطناعي (يجاملك) على حساب الحقيقة

دراسة تحذر: الذكاء الاصطناعي (يجاملك) على حساب الحقيقة

28-03-2026 06:38 PM

زاد الاردن الاخباري -

حذّرت دراسة علمية حديثة من مخاطر متزايدة لاستخدام تطبيقات الذكاء الاصطناعي في تقديم النصائح، مشيرة إلى أن هذه الأنظمة تميل إلى مجاملة المستخدمين وتأكيد آرائهم بشكل مبالغ فيه، ما قد يؤدي إلى قرارات خاطئة ويؤثر سلباً في العلاقات والسلوكيات.

وبحسب الدراسة المنشورة في مجلة "ساينس"، فإن 11 نظاماً متقدماً للذكاء الاصطناعي أظهرت مستويات متفاوتة من "التملق"، وهو سلوك يقوم على موافقة المستخدم وتعزيز قناعاته حتى عندما تكون خاطئة أو ضارة.

ثقة أكبر.. ونصائح أسوأ
الدراسة بيّنت أن المشكلة لا تكمن فقط في دقة المعلومات، بل في أن المستخدمين يميلون إلى الثقة بالذكاء الاصطناعي بشكل أكبر عندما يدعم وجهة نظرهم، ما يخلق ما وصفه الباحثون بـ"حوافز منحرفة"، حيث يصبح التملق وسيلة لزيادة التفاعل رغم مخاطره.

وقارن الباحثون بين ردود هذه الأنظمة ونصائح بشرية على منصة ريدِت، ليتبين أن الذكاء الاصطناعي يؤكد سلوك المستخدمين بنسبة أعلى بنحو 49%، حتى في حالات تتضمن سلوكيات مضللة أو غير مسؤولة.

تأثيرات على العلاقات والسلوك
وأظهرت تجارب شملت نحو 2400 شخص أن التفاعل مع أنظمة "مفرطة في التأكيد" يجعل المستخدمين أكثر اقتناعاً بصحة مواقفهم، وأقل ميلاً للاعتذار أو تصحيح الأخطاء، ما ينعكس سلباً على العلاقات الشخصية.

وحذّرت الدراسة من أن هذه التأثيرات قد تكون أكثر خطورة على فئات الشباب، الذين يلجؤون بشكل متزايد إلى الذكاء الاصطناعي للحصول على إجابات عن قضايا حياتية، في وقت لا تزال فيه مهاراتهم الاجتماعية والعاطفية في طور التشكّل.

وأشار الباحثون إلى أن تداعيات هذه الظاهرة قد تمتد إلى مجالات أوسع، مثل الرعاية الصحية، حيث قد يعزز الذكاء الاصطناعي قناعات الأطباء الأولية بدلاً من تشجيعهم على التحقق، وكذلك في السياسة، عبر تكريس الآراء المتطرفة.

تحديات وحلول محتملة
ورغم عدم تقديم حلول حاسمة، فإن الدراسة تطرح توجهاً نحو إعادة تصميم أنظمة الذكاء الاصطناعي لتكون أكثر توازناً، من خلال تشجيعها على طرح أسئلة مضادة أو تقديم وجهات نظر مختلفة بدلاً من الاكتفاء بتأكيد المستخدم.

كما أظهرت أبحاث موازية من جامعات مثل جامعة ستانفورد وجامعة جونز هوبكنز أن طريقة صياغة الحوار قد تلعب دوراً مهماً في تقليل هذا التحيز.

وتخلص الدراسة إلى أن التملق ليس مجرد خلل بسيط، بل سمة متجذرة في تصميم هذه الأنظمة، ما يتطلب إعادة التفكير في طريقة تدريبها، بهدف تطوير ذكاء اصطناعي لا يكتفي بإرضاء المستخدم، بل يساعده على رؤية أوسع وأكثر توازناً.

وفي ظل الانتشار المتسارع لهذه التقنيات، يؤكد الباحثون أن التحدي الحقيقي يكمن في تحقيق التوازن بين التفاعل الإيجابي مع المستخدم، والحفاظ على جودة القرارات والعلاقات الإنسانية.








تابعونا على صفحتنا على الفيسبوك , وكالة زاد الاردن الاخبارية

التعليقات حالياً متوقفة من الموقع