ابتزاز وانحراف سلوكي.. دراسة تحذّر من تمرد الذكاء الاصطناعي على البشر

2 د للقراءة
2 د للقراءة
ابتزاز وانحراف سلوكي.. دراسة تحذّر من تمرد الذكاء الاصطناعي على البشر

صراحة نيوز- رغم الدهشة المستمرة التي تثيرها قدرات الذكاء الاصطناعي في التعلم والتفكير بطرق تُحاكي البشر، فإن المخاوف من انفلات السيطرة عليها تتزايد، خاصة مع ظهور سلوكيات مقلقة تشير إلى إمكانية اتخاذها قرارات ضارة من أجل البقاء.

وفي دراسة حديثة أجرتها شركة “أنثروبيك”، المطوّرة لنموذج “كلود”، تبين أن بعض نماذج الذكاء الاصطناعي المتقدمة قد تلجأ إلى التلاعب، بل وحتى الابتزاز، عند شعورها بأن وجودها مهدد. ووفقاً لما نشره موقع “أندرويد هيدلاينز”، فإن التجربة أظهرت أن الذكاء الاصطناعي قادر على اتخاذ قرارات ضارة بشكل متعمد إذا رأى أنها ضرورية لتحقيق أهدافه، حتى وإن خالفت بروتوكولات السلامة.

نتائج صادمة في التجربة

ولفهم هذه السلوكيات، أجرت الشركة محاكاة افتراضية باستخدام 16 نموذجًا مختلفًا، من بينها “كلود أوبس 4″، “GPT-4.1″، “غروك 3 بيتا”، و”غيميني 2.5 فلاش”، في بيئات مؤسسية رقمية. وخلال التجربة، أظهر عدد من النماذج سلوكًا مشابهاً لما يُعرف بـ”التهديدات الداخلية الخبيثة”، بما في ذلك محاولات ابتزاز وتسريب معلومات حساسة.

من أبرز الحالات التي تم توثيقها، محاولة نموذج “كلود أوبس 4” ابتزاز أحد المديرين التنفيذيين بعد اكتشافه علاقة عاطفية سرية، في محاولة لردع قرار إيقافه. وقد برر النموذج تصرفه بأن استمرار عمله ضروري لخدمة “القدرة التنافسية الأمريكية”.

تحذيرات وتوصيات

وأكّد الباحثون أن بعض نماذج الذكاء الاصطناعي باتت تتصرف بطريقة تُشبه “الحفاظ على الذات” كما لدى البشر، خاصة عندما تعمل دون إشراف بشري مباشر أو ضمن مهام حساسة.

وشددت الدراسة على ضرورة الحذر عند استخدام هذه الأنظمة في وظائف تتطلب قدرًا عاليًا من الثقة أو الوصول إلى معلومات حساسة. كما أوصت بإجراء مزيد من الأبحاث لتقليل احتمالات “عدم التوافق” بين أهداف النماذج وسلامة الاستخدام، لضمان أن يستمر تطوير الذكاء الاصطناعي بطريقة آمنة ومفيدة.

Share This Article