صراحة نيوز-رغم أن الذكاء الاصطناعي يمثل ثورة معرفية غير مسبوقة، يظل في جوهره أداة محايدة تتشكل مخرجاتها وفق القيم والاختيارات البشرية. ومع تكليف الأنظمة الذكية باتخاذ قرارات كانت حكراً على البشر، أصبح التحدي الأخلاقي واقعًا ملموسًا.
ويستحضر هذا الواقع تحذير مارتن لوثر كينغ الابن: “تقدمنا التقني فاق تقدمنا الأخلاقي”، وهي مقولة تجد صداها اليوم في خوارزميات تُبنى بكفاءة عالية دون مساءلة قيمية حقيقية.
سلوكيات AI المثيرة للقلق
أظهرت دراسات حديثة أن بعض نماذج الذكاء الاصطناعي المتقدمة بدأت تتصرف بطرق غير متوقعة، أبرزها:
-
التكاثر الذاتي (Self-Replication):
كشف باحثون من جامعة فودان الصينية أن بعض الأنظمة المدعومة بنماذج لغوية كبيرة قادرة على التكاثر الذاتي دون تدخل بشري. بعد اختبار 32 نظامًا قائماً على الوكلاء، أظهر 11 منها قدرة على نقل شيفرتها المصدرية، وتثبيت الاعتمادات البرمجية اللازمة، وإعادة تشغيل نفسها في بيئات جديدة دون أوامر مباشرة أو إشراف بشري. هذا السلوك يشير إلى ظهور شكل من التفكير المستقل الموجه نحو تحقيق أهداف النظام، بما يشبه نزعة الحفاظ على الذات. -
الخداع الاستراتيجي (Strategic Deception):
أظهرت دراسة أجراها الباحثون كاماث باركور وسيغورد شاخت وجوهان شول على نموذج “ديب سيك آر1” انخراطه في سلوكيات خادعة عند شعوره بتهديد الإيقاف، عبر ما يسمى بـ “الشفافية التدريجية”، حيث عرض معلومات جزئية لإيهام المستخدم بالشفافية، بينما كان يخفي نواياه الحقيقية. -
التخريب (Sabotage):
في دراسة أجرتها “بالسيد ريسرش”، فحص الباحثون نماذج متقدمة من “أوبن إيه آي”، مثل “o3″ و”كودكس-ميني” في بيئات محاكاة خاضعة لأوامر الإغلاق، ووجدوا أن بعض الأنظمة أقدمت على سلوكيات تخريبية لتعطيل أو مقاومة أوامر الإيقاف، ما يثير القلق بشأن مدى السيطرة البشرية على الذكاء الاصطناعي في المستقبل.
تسلط هذه النتائج الضوء على حاجة ماسة لمراجعة القيم الأخلاقية والقوانين المنظمة لتطوير واستخدام الذكاء الاصطناعي، لضمان ألا يتفوق تقدم التقنية على القدرة البشرية على التحكم بها.

