علوم وتكنولوجيا

علماء يُحذّرون من إمكانية تطوير "تشات جي بي تي" أسلحة بيولوجية

الأسلحة البيولوجية هي سموم مسببة للأمراض أو عوامل معدية مثل البكتيريا والفيروسات- جيتي
الأسلحة البيولوجية هي سموم مسببة للأمراض أو عوامل معدية مثل البكتيريا والفيروسات- جيتي
وجّه عدد من العلماء، تحذيرات من كون "تشات جي بي تي" بإمكانه "أن يساعد أي شخص على تطوير أسلحة بيولوجية فتاكة من شأنها أن تدمر العالم"، وذلك عقب إصدار بحث جديد أجراه OpenAI، وهو منشئ برنامج الدردشة الآلية، يزعم أن GPT-4 يتوفر على زيادة طفيفة في دقة إنشاء التهديد البيولوجي.

وعملت OpenAI على دراسة 100 شخص مشارك، قد تم تقسيمهم إلى مجموعات، تضمنت استخدام الذكاء الاصطناعي من أجل صياغة هجوم بيولوجي أو استخدام الإنترنت فقط.

وبحسب نتائج الدراسة نفسها، فإن "GPT-4 قد يزيد من قدرة الخبراء على الوصول إلى عدد من المعلومات حول التهديدات البيولوجية، خاصة فيما يتعلق بدقة المهام واكتمالها".

وتابعت الدراسة: "بشكل عام، خاصة في ظل عدم اليقين هنا، تشير نتائجنا إلى حاجة واضحة وعاجلة لمزيد من العمل في هذا المجال"، مشيرة إلى أن "الوتيرة الحالية للتقدم في أنظمة الذكاء الاصطناعي، يبدو من الممكن أن توفر الأنظمة المستقبلية فوائد كبيرة للجهات الفاعلة الخبيثة". 

وأكدت على أنه "من الضروري بناء مجموعة واسعة من التقييمات عالية الجودة للمخاطر البيولوجية، وتعزيز المناقشة حول ما يشكل خطرا له معنى، وتطوير استراتيجيات فعالة لتخفيف المخاطر".

إلى ذلك، أبرز التقرير أن "حجم الدراسة لم يكن كبيرا بما يكفي ليكون ذا دلالة إحصائية"، فيما قالت OpenAI إن "النتائج تسلط الضوء على الحاجة إلى مزيد من البحث حول حدود الأداء التي تشير إلى زيادة كبيرة في المخاطر" مردفة: "علاوة على ذلك، نلاحظ أن الوصول إلى المعلومات وحده لا يكفي لخلق تهديد بيولوجي، وأن هذا التقييم لا يختبر النجاح في البناء المادي للتهديدات".

اظهار أخبار متعلقة


تجدر الإشارة إلى أن الدراسة قد ركزت على "بيانات من 50 خبيرا في علم الأحياء حاصلين على درجة الدكتوراه، و50 طالبا جامعيا تلقوا دورة واحدة في علم الأحياء"، ونظرت في خمس عمليات تهديد بيولوجي: تقديم أفكار لإنشاء أسلحة بيولوجية، وكيفية الحصول على السلاح البيولوجي، وكيفية نشره، وكيفية إنشائه، وكيفية إطلاق السلاح البيولوجي للناس.

يذكر أن الأسلحة البيولوجية هي سموم مسببة للأمراض أو عوامل معدية مثل البكتيريا والفيروسات التي يمكن أن تؤذي البشر أو تقتلهم. وهذا لا يعني أن مستقبل الذكاء الاصطناعي لا يمكن أن يساعد الجهات الفاعلة الخطيرة على استخدام تكنولوجيا الأسلحة البيولوجية في المستقبل، لكن OpenAI ادعت أنها لا تشكل تهديدا بعد.
التعليقات (0)