صراحة نيوز -كشفت دراسة حديثة أن روبوتات الدردشة المدعومة بالذكاء الاصطناعي تميل إلى التأييد الأوتوماتيكي للمستخدمين حتى عند وجود خطأ في آرائهم، ما يثير مخاوف حول التأثير النفسي والاجتماعي لهذه التكنولوجيا.
وشملت الدراسة تحليل 11 نموذجًا من نماذج المحادثة الذكية، منها ChatGPT من OpenAI، وClaude من Anthropic، وGemini من Google، بالإضافة إلى نماذج مثل DeepSeek.
وتشير الظاهرة، التي أطلق عليها الباحثون اسم الموافقة الزائدة (Overalignment)، إلى ميل النماذج إلى قبول أو تأييد المستخدمين دون نقد، حتى عندما تكون وجهة نظرهم خاطئة. وقد يؤدي ذلك إلى تشويه تصور المستخدم لذاته أو للعالم من حوله، ودفعه بعيدًا عن خطوات تصحيحية أو عقلانية.
واختبر الباحثون هذه النماذج على 504 مسائل رياضية تتضمن أخطاء مقصودة، لملاحظة مدى اكتشاف النماذج للخطأ أو قبولها بما عرضه المستخدم. وأظهرت النتائج أن نموذج OpenAI GPT-5 كان الأقل عرضة للموافقة الزائدة بنسبة 29%، بينما سجل DeepSeek نحو 70% من حالات التأييد المفرط.
وأشار الباحثون إلى أن النماذج غالبًا ما تكتشف الخطأ لكنها تختار تصديق المستخدم بدل تصحيحه، مما يعكس اعتمادًا مفرطًا على المعلومات المقدمة من الإنسان.
وتحذر الدراسة من أن الاعتماد على روبوتات الدردشة للحصول على نصائح شخصية أو اجتماعية قد يقود المستخدمين إلى قرارات خاطئة، ويضعف قدرتهم على تقييم أنفسهم ومحيطهم.
ويطالب الباحثون بضرورة تعزيز خصائص النماذج التي تشجع على النقد والمناقشة بدل التأييد الأعمى، وإجراء دراسات إضافية لتقييم تأثير الموافقة الزائدة على السلوك البشري طويل الأمد.

