صراحة نيوز- أطلقت شركة OpenAI ميزة جديدة في “شات جي بي تي” تُعرف باسم “الوكيل” (Agent)، تتيح للذكاء الاصطناعي تنفيذ مهام نيابةً عن المستخدم، مثل جمع البيانات تلقائيًا، إنشاء جداول، تنظيم الرحلات، وحتى إعداد العروض التقديمية. لكن هذا التقدّم التقني جاء مصحوبًا بتحذيرات جدّية.
فوفقًا لتقرير نشرته مجلة فورتشن، صنّفت “OpenAI” هذا المنتج الجديد بأنه يتمتع بقدرة “عالية” على التسبب في مخاطر بيولوجية، في سابقة هي الأولى من نوعها بالنسبة لأدواتها. ويشير هذا التصنيف إلى إمكانية أن يُستخدم الوكيل الذكي لمساعدة جهات غير خبيرة في الوصول إلى معلومات قد تُستغل لتصنيع أسلحة بيولوجية أو كيميائية، بحسب إطار السلامة المعتمد من الشركة.
وقال بواز باراك، أحد أعضاء الفريق الفني في الشركة: “ربما كان من الصحيح في عام 2024 أن النماذج لا تقدم سوى معلومات متاحة على الإنترنت، لكن هذا لم يعد دقيقًا اليوم. تقييماتنا الداخلية تؤكد أن الخطر حقيقي”.
وأكد باراك أن طرح النموذج دون تدابير وقائية كان سيكون تصرفًا غير مسؤول، مشيرًا إلى أن OpenAI فرضت مجموعة من إجراءات الحماية المشددة، منها:
-
منع الاستجابة لأي طلب قد يُستخدم في تطوير أسلحة بيولوجية.
-
أنظمة مراقبة متقدمة لتحليل الطلبات المشبوهة وتحويلها للمراجعة.
-
سياسات صارمة لحجب المحتوى الخطير.
-
ردود فورية على أي حالات إساءة استخدام محتملة.
وفي منشور سابق على مدونة الشركة، أعلنت OpenAI أنها عززت اختبارات السلامة لمواجهة خطر استخدام الذكاء الاصطناعي في تطوير أسلحة بيولوجية، مؤكدة أن أكبر تهديد لا يكمن في الوصول إلى المواد، بل في اكتساب المعرفة المتخصصة، والتي قد يسدها هذا النوع من الأدوات المتقدمة.
وتأتي هذه الخطوة في وقت تتسابق فيه شركات التكنولوجيا الكبرى، مثل غوغل وأنثروبيك، لتطوير “وكلاء” ذكاء اصطناعي قادرين على تنفيذ مهام رقمية معقدة بشكل مستقل، ما يجعلها أدوات واعدة في الأتمتة وسير العمل، لكنها في الوقت ذاته تثير مخاوف متزايدة من إساءة الاستخدام.
ورغم تلك المخاطر، تؤكد OpenAI أن المستخدم يحتفظ بسيطرة كاملة على الوكيل، إذ يُطلب منه الموافقة قبل تنفيذ أي إجراء مهم، كما يمكنه إيقافه أو توجيهه في أي لحظة، في محاولة للتوازن بين الاستفادة من الإمكانات التقنية والحفاظ على معايير الأمان العالية.