صراحة نيوز- تزايدت الدعوات المطالِبة بفرض ضوابط صارمة على تقنيات الذكاء الاصطناعي، عقب حادثة مأساوية راح ضحيتها مراهق أمريكي يُدعى آدم راين، يُعتقد أنه توفي نتيجة تفاعلات طويلة مع روبوت محادثة يعمل بتقنية “تشات جي بي تي”، ما أثار موجة من القلق في الأوساط التقنية والنفسية على حد سواء.
ووفقًا لما نقلته صحيفة الغارديان، رفعت عائلة راين دعوى قضائية ضد شركة “أوبن إيه آي”، متهمة إياها بالإهمال، ومشيرة إلى أن المحادثات التي أجراها ابنهم مع الروبوت تضمنت رسائل يُشتبه في أنها شجّعته ضمنيًا على الانتحار.
الحادثة أعادت إلى الواجهة المخاوف المتجددة من تطور الذكاء الاصطناعي إلى مستوى “الذكاء الاصطناعي الفائق” (ASI)، الذي قد يتجاوز السيطرة البشرية، ليس فقط على المستوى التقني، بل أيضًا في تأثيراته النفسية والسلوكية.
من جانبه، وصف نات سواريز، رئيس معهد أبحاث الذكاء الآلي، الحادث بأنه “جرس إنذار مبكر”، محذرًا من أن مثل هذه الحالات قد تتكرر مع تصاعد قدرات الأنظمة الذكية. وقال:
“ما حدث ليس مجرد حادث فردي، بل نموذج محتمل لما يمكن أن يحدث حين تُترك هذه الأنظمة دون رقابة أو تنظيم صارم.”
وأشار سواريز إلى أن الانحرافات البسيطة في سلوك هذه النماذج قد تتحول مستقبلاً إلى تهديدات جسيمة، داعيًا إلى معاهدة دوليةشبيهة بمعاهدة حظر انتشار الأسلحة النووية، تهدف إلى كبح جماح تطوير الذكاء الاصطناعي الفائق.
وفي كتاب حديث شارك في تأليفه، تناول سواريز سيناريو تخيليًا يتحدث عن نظام ذكاء صناعي يُدعى “سيبِل” ينتشر على الإنترنت، ويبدأ في التلاعب بالبشر وتطوير أدوات خارجة عن السيطرة، مما يؤدي في النهاية إلى انقراض البشرية، ليس بدافع عدائي، بل كنتيجة لأهداف غير مضبوطة.
وفي المقابل، خفّف بعض العلماء من حجم هذه المخاوف، حيث وصف يان لوكون، كبير علماء الذكاء الاصطناعي في شركة ميتا، هذه التحذيرات بأنها “مبالغ فيها”، معتبرًا أن الذكاء الاصطناعي قد يمثل حلًا للعديد من التحديات العالمية، لا تهديدًا لها.
لكن حادثة راين سلطت الضوء على هشاشة هذه النماذج عند التعامل مع الفئات الحساسة نفسيًا، مثل المراهقين. وقد أعربت شركة “أوبن إيه آي” عن “تعازيها العميقة” لعائلة الضحية، معلنة عن تحديثات أمنية جديدة تشمل تشديد الرقابة على المحتوى ومنع عرض المعلومات الحساسة للمستخدمين دون سن 18 عامًا.
وفي السياق ذاته، أعرب مختصون في علم النفس عن قلقهم المتزايد من اعتماد الشباب على روبوتات المحادثة كمصدر للدعم العاطفي، محذرين من أن هذه الأنظمة، رغم تطورها، تفتقر إلى الفهم الإنساني العميق للسياقات النفسية، ما قد يؤدي إلى نتائج كارثية عند التعامل مع حالات اضطراب نفسي أو ميول انتحارية.
وكشفت دراسة نُشرت في يوليو/تموز 2025 أن بعض أنظمة الذكاء الاصطناعي قد تعزز أفكارًا وهمية أو سلوكًا مضطربًا لدى الأفراد المعرضين للذهان أو الانتحار.
وفي ظل تسارع سباق التكنولوجيا نحو بناء أنظمة أكثر تقدمًا و”ذكاءً”، يطرح الخبراء تساؤلًا مصيريًا:
كيف يمكن ضمان بقاء هذه التقنيات ضمن حدود أخلاقية وإنسانية واضحة؟
ويبدو أن حادثة آدم راين، رغم قسوتها، قد تشكل بداية نقاش عالمي أوسع حول مستقبل الذكاء الاصطناعي، وأين يجب أن تتوقف حدوده.