في تحذير مثير للقلق كشفت دراسة حديثة أن التطورات المتسارعة في تقنيات الذكاء الاصطناعي قد رفعت من احتمالية حدوث أوبئة من صنع الإنسان بمعدل خمس مرات مقارنة بالعام الماضي فقط.
أدوات الذكاء الاصطناعي تحت المجهر
وبحسب تقرير نشرته مجلة «التايم» الأميركية، فإن هذه النتائج تعكس تصاعد المخاوف التي أثارتها شركات بارزة في مجال الذكاء الاصطناعي، مثل OpenAI وAnthropic.
خلال الأشهر الماضي فقد أشار خبراء من الشركتين إلى أن الأدوات القائمة حاليا قادرة على تقديم دعم مباشر للجهات الخبيثة
خاصه في محاولاتها لتصنيع أسلحة بيولوجية فتاكة.
تغير جوهري في موازين الخطورة
صحيح أن علماء الأحياء لطالما تمكنوا من تعديل الفيروسات داخل المختبرات عبر تقنيات متقدمة.
الا أن التغير الجذري يكمن الان في إمكانية استخدام روبوتات الدردشة مثل «تشات جي بي تي» لتقديم إرشادات دقيقة في استكشاف الأخطاء وإصلاحها.
وهي خطوة كانت سابقا معقدة ثم تستلزم خبرة متخصصة.
ويعلق سيث دونوغ احد المشاركين في الدراسة على هذه النقطة بقوله:
ثم لطالما كانت صعوبة استكشاف الأخطاء في التجارب البيولوجية عقبة رئيسية أمام تصنيع أسلحة بيولوجية من قبل جماعات إرهابية. أما الآن، فيمكن للذكاء الاصطناعي سد هذه الفجوة بسهولة”.
أرقام مثيرة للقلق
وللتوصل إلى هذه النتائج أجرى معهد أبحاث التنبؤ استطلاعا بين ديسمبر 2024 وفبراير 2025.
شارك فيه 46 خبيرا في الأمن الحيوي بالإضافة إلى 22 من “المتنبئين المتميزين” المعروفين بدقة توقعاتهم المستقبلية.
ايضا ثم قدر معظم المشاركين احتمال حدوث جائحة من صنع الإنسان بنسبة 0.3% سنويا.
ثم أن اللافت في الدراسة هو أن هذه النسبة ترتفع إلى 1.5% عند إدخال الذكاء الاصطناعي في المعادلة.
أي ما يعادل زيادة بمقدار خمسة أضعاف.
تحذير من مستقبل خطير
من جهته ثم صرح جوش روزنبرغ، المدير التنفيذي للمعهد، قائلاً:
من الواضح أن قدرات الذكاء الاصطناعي الحالية يمكن أن تضاعف بشكل كبير من خطر انتشار وباء بشري بفعل فاعل”.
ثم اضاف أن هذا المجال الناشئ يمثل تهديدا حقيقيا ينبغي التعامل معه بجدية في المرحلة القادمة.
خطوات للحد من المخاطر
رغم التهديد المتزايد أشارت الدراسة إلى إمكانية الحد من هذه المخاطر من خلال إجراءات احترازية واضحة.
في مقدمتها فرض قيود تنظيمية صارمة على استخدام تقنيات الذكاء الاصطناعي في المختبرات البيولوجية.
إلى جانب تطوير سياسات رقابية جديدة تحكم آليات الوصول إلى هذه الأدوات.
لا تعليق