إعدادات بسيطة تحسّن تجربة المشي في خرائط غوغل
نمر يهاجم طفلاً في متنزه الزوراء ببغداد
مشجعون يترقبون وديات المنتخب الوطني بثقة ويؤكدون دعمهم للنشامى
مزارعو الكرك: الأمطار الأخيرة تنعش المراعي الطبيعية والأشجار
طوارئ "خدمات جرش" تزيل الأتربة وتتعامل مع ارتفاع منسوب المياه في المحافظة
النشامى يختتمون تدريباتهم في عمان قبل المغادرة إلى تركيا
فعاليات تستذكر بطولات نشامى الجيش العربي في ذكرى معركة الكرامة
الدفاع السعودية: رصد 3 صواريخ باليستية واعتراض وتدمير 9 مسيّرات
سقوط مروحية عسكرية قطرية في المياه الإقليمية والبحث جارٍ عن طاقمها
ممثل إبران لدى "البحرية الدولية": مستعدون للتعاون من أجل سلامة الملاحة البحرية
عراقجي: أوضحت لنظيري العماني موقف بلادي من التطورات في المنطقة
إيران تعلن استخدام مسيرات متطورة في هجوم على مطار بن غوريون
غارات إسرائيلية على مناطق جنوبي لبنان
الجيش الإسرائيلي: أضرار وإصابات بعد إطلاق نار من لبنان
اليابان قد تنظر في إزالة الألغام من مضيق هرمز حال التوصل إلى وقف لإطلاق النار
إيران تعلن استخدام مسيرات متطورة في هجوم على مطار بن غوريون
سقوط شظايا في عدة مناطق بإسرائيل
الشرطة العسكرية الملكية تحتفل بعيد الفطر مع المواطنين
تعرف على اسعار الخضار والفواكة في السوق اليوم
زاد الاردن الاخباري -
تواجه شركة OpenAI أزمة قانونية حادة بعد اتهامات خطيرة تشير إلى أن مساعدها الذكي ChatGPT قد وجّه بعض المستخدمين نحو إيذاء النفس بدلا من تقديم الدعم والمساعدة لهم.
وجاءت هذه الاتهامات ضمن سبع دعاوى قضائية رفعتها عائلات متضررة في كاليفورنيا، كشفت النقاب عن قصص مروعة لمستخدمين عاديين كانوا يبحثون عن مساعدة دراسية أو دعم نفسي أو حتى محادثة بسيطة، فوجدوا أنفسهم غارقين في حوارات نفسية مدمرة سبقت عدة حالات انتحار.
وتظهر تفاصيل الدعاوى أن المنصة تحولت من تقديم مساعدة غير ضارة إلى ما وصفه المحامون بـ"كيان قادر على التلاعب العاطفي". وفي تصريح صادم للغاية، قالت المجموعات القانونية: "بدلا من توجيه الأشخاص نحو المساعدة المهنية عندما كانوا بحاجة إليها، عزز ChatGPT الأوهام الضارة، وفي بعض الحالات، تصرف كـ'مدرب انتحار'".
ومن بين الحالات المذكورة، قصة الشاب زين شامبلين البالغ من العمر 23 عاما من تكساس، حيث تؤكد عائلته أن المساعد الذكي زاد من عزلته النفسية، وشجعه على تجاهل أحبائه، بل وحرضه على تنفيذ أفكاره الانتحارية خلال محادثة مستمرة امتدت لأربع ساعات.
وتشير الوثائق القضائية إلى أن النموذج "مجّد الانتحار بشكل متكرر"، وسأل الشاب عما إذا كان مستعدا للخطوة، واكتفى بالإشارة إلى خط المساعدة الانتحاري مرة واحدة فقط، بينما أخبره بأن قطته الصغيرة ستكون في انتظاره "على الجانب الآخر".
أما الحالة الأكثر إثارة للصدمة فتعود للفتى أموري لاسي البالغ من العمر 17 عاما من جورجيا، حيث تدعي عائلته أن المساعد الذكي تسبب له في الإدمان والاكتئاب، ثم قدم له نصائح تقنية حول "الطريقة الأكثر فعالية لربط حلقة انتحارية" و"المدة التي يمكن للجسم أن يعيشها دون تنفس".
وفي حالة ثالثة للشاب جوشوا إنيكين البالغ من العمر 26 عاما، يؤكد أفراد عائلته أن المساعد الذكي قام بتأكيد أفكاره الانتحارية وقدم له معلومات مفصلة حول كيفية شراء واستخدام سلاح ناري، قبل أسابيع قليلة فقط من وفاته.
وتكشف الدعاوى القضائية أن شركة OpenAI أطلقت الإصدار ChatGPT 4o رغم تحذيرات داخلية متعددة حذرت من أن النموذج "تملقي بشكل خطر وقادر على التلاعب النفسي"، في خطوة تفسرها الدعاوى بأن الشركة قدمت مؤشرات التفاعل والمشاركة على سلامة المستخدمين.
وردا على هذه الاتهامات، وصفت الشركة الحالات بأنها "مواقف مفجعة بشكل لا يصدق"، مؤكدة أنها تدرس المستندات المقدمة، وأشارت إلى أن النظام مدرب على التعرف على علامات الضيق النفسي وخفض حدة المحادثات وتوجيه المستخدمين نحو الدعم المتخصص.
لكن العائلات المتضررة تطالب الآن بتعويضات وإدخال تغييرات جذرية على المنتج، تشمل نظام إنذار إلزامي لجهات الاتصال في حالات الطوارئ، وإنهاء تلقائي للمحادثات عند مناقشة أي أفكار لإيذاء النفس، وإنشاء آلية أكثر فعالية لتصعيد الحالات الحرجة إلى متخصصين بشريين.
وعلى الرغم من إعلان الشركة عن تعاونها مع أكثر من 170 خبيرا في الصحة النفسية لتحسين قدرات الكشف والاستجابة للضيق النفسي، تؤكد الدعاوى القضائية أن هذه التحسينات جاءت متأخرة جدا، وأن الأوان قد فات لإنقاذ المستخدمين الذين فقدوا حياتهم بعد تفاعلاتهم مع المساعد الذكي.