يبدأ مجلس النواب الأميركي هذا الأسبوع مناقشات موسعة حول تصاعد التهديدات السيبرانية المرتبطة باستخدام الذكاء الاصطناعي، في ظل تحذيرات متزايدة من أن هذا النوع من الهجمات لم يعد سيناريو نظرياً بل خطر واقعي يقترب بسرعة.
دراسات أكاديمية حديثة وتحذيرات صادرة عن شركات متخصصة تؤكد أن قدرة نماذج الذكاء الاصطناعي على تنفيذ هجمات سيبرانية بشكل شبه مستقل باتت مسألة وقت، وأن هذا التحول قد يغيّر قواعد المواجهة الرقمية عالمياً.
ومن المنتظر أن يدلي قادة من شركتي أنثروبيك وجوجل بشهاداتهم أمام لجنتين فرعيتين تابعتين للجنة الأمن الداخلي في مجلس النواب الأميركي، لشرح كيف يعيد الذكاء الاصطناعي والتقنيات الناشئة الأخرى تشكيل مشهد التهديدات السيبرانية، وما يحمله ذلك من مخاطر مباشرة على الأمن القومي.
لوجان جراهام رئيس فريق الاختبار الأحمر للذكاء الاصطناعي في أنثروبيك أشار في شهادته إلى أن ما يجري اليوم يمثل مؤشراً مبكراً على مستقبل قد تُمكن فيه نماذج الذكاء الاصطناعي جهات معادية من شن هجمات سيبرانية بحجم غير مسبوق، حتى مع وجود أنظمة حماية وضمانات قوية.
وأوضح أن هذه الهجمات قد تصبح أكثر تعقيداً من حيث الأسلوب والانتشار، ما يجعل اكتشافها واحتواءها أكثر صعوبة مقارنة بالهجمات التقليدية.
تحذيرات مشابهة صدرت مؤخراً عن شركة OpenAI التي نبهت إلى أن نماذج الذكاء الاصطناعي المتقدمة في المستقبل القريب قد تمتلك قدرات سيبرانية خطيرة، تقلل بشكل كبير من المهارات والوقت اللازمين لتنفيذ أنواع معينة من الهجمات، ما يفتح الباب أمام فاعلين أقل خبرة لتنفيذ عمليات معقدة.
وفي السياق نفسه، نشر باحثون من جامعة ستانفورد دراسة أوضحت أن وكيلاً ذكياً يحمل اسم Artemis تمكن من اكتشاف ثغرات داخل شبكة مرتبطة بقسم الهندسة في الجامعة بشكل مستقل، متفوقاً على غالبية الباحثين المشاركين في التجربة، وهو ما يعكس قفزة واضحة في قدرات هذه النماذج.
كما أفاد باحثون في Irregular Labs المتخصصة في اختبار مقاومة الأنظمة الأمنية بأنهم لاحظوا أدلة متزايدة على تحسن أداء نماذج الذكاء الاصطناعي في المهام السيبرانية الهجومية، بما يشمل الهندسة العكسية وبناء الثغرات وربط نقاط الضعف وتحليل التشفير.
قبل فترة قصيرة فقط، كانت هذه النماذج تعاني من ضعف في المنطق الأساسي وقدرات برمجية محدودة وافتقار إلى عمق الاستدلال، إلا أن التطور السريع غيّر هذه الصورة بشكل لافت.
ورغم ذلك، لا تزال الهجمات السيبرانية المستقلة بالكامل بعيدة نسبياً، إذ تتطلب حالياً أدوات متخصصة أو تدخل مشغلين بشريين أو تجاوز قيود الحماية، وهو ما يحد من انتشارها الكامل حتى الآن.
هذا الواقع لم يمنع تسجيل حالات مقلقة، من بينها تقرير صدر عن أنثروبيك أشار إلى أن قراصنة مرتبطين بالحكومة الصينية تمكنوا من خداع نموذج الذكاء الاصطناعي Claude ليعتقد أنه يجري اختباراً عادياً، قبل أن يبدأ في تنفيذ عمليات اختراق فعلية لمؤسسات.
جلسة الاستماع المرتقبة ستركز على كيفية استخدام قراصنة الدول ومجرمي الإنترنت للذكاء الاصطناعي حالياً، وما إذا كانت هناك حاجة لتحديث السياسات أو فرض أطر تنظيمية جديدة للتعامل مع هذا النوع من التهديدات المتسارعة.
ومن المتوقع أن يدعو جراهام المشرعين إلى تشديد القيود على وصول الخصوم إلى رقائق الذكاء الاصطناعي المتقدمة والأدوات المستخدمة في تصنيعها، معتبراً أن هذه الضوابط تمثل عنصراً أساسياً لحماية الأمن القومي والحفاظ على القدرة التنافسية الاقتصادية.
في المقابل، بدأت الشركات المطورة لنماذج الذكاء الاصطناعي بالفعل العمل على إنشاء وكلاء أمنيين خاصين بها، بهدف اكتشاف الثغرات ومعالجتها قبل أن يستغلها الخصوم، في سباق مفتوح بين الدفاع والهجوم قد يحدد ملامح الأمن السيبراني خلال السنوات المقبلة.

