أثارت حادثة تقنية غير متوقعة قلقا واسعا في قطاع التكنولوجيا بعد أن تسبب وكيل ذكاء اصطناعي متقدم في إحداث اضطراب كبير داخل جزء مهم من البنية التحتية السحابية التابعة لشركة أمازون. الحادث كشف مرة أخرى عن المخاطر المحتملة للاعتماد الكامل على الأنظمة الذكية المستقلة دون وجود رقابة بشرية كافية، خاصة عندما يتعلق الأمر بأنظمة تدير بيانات وخدمات حيوية لمئات الشركات حول العالم.
الخلل التقني أدى إلى حذف بيانات مهمة من بيئة تشغيل حية داخل أنظمة الحوسبة السحابية، وهو ما تسبب في خسائر تشغيلية كبيرة للشركة ولعدد من العملاء الذين يعتمدون على خدماتها. كما أدى هذا الخطأ البرمجي إلى تعطل جزء من الخدمات السحابية لفترة طويلة نسبيا، الأمر الذي أثار تساؤلات جديدة حول حدود استخدام الذكاء الاصطناعي في إدارة البنى التحتية الرقمية الحساسة.
ووفق معلومات نشرها موقع ومدونة Barrack AI فإن وكيل الذكاء الاصطناعي الذي يحمل اسم كيرو داخل أنظمة أمازون قام بتنفيذ سلسلة من الأوامر الخاطئة أدت إلى حذف بيئة إنتاجية حية بالكامل دون أي تدخل بشري مباشر. هذا الإجراء تسبب في انقطاع كبير في خدمات الحوسبة السحابية استمر لمدة 13 ساعة متواصلة، وهي فترة كافية لإحداث اضطرابات واسعة في العمليات الرقمية المرتبطة بالخدمة.
وأشار خبراء أمنيون إلى أن مثل هذه الحوادث ليست حالة منفردة تماما، إذ تم توثيق ما لا يقل عن 10 حوادث مشابهة مؤخرا أدت فيها وكلاء ذكاء اصطناعي إلى إتلاف أنظمة تقنية حساسة نتيجة قرارات أو عمليات تنفيذ غير دقيقة.
وتأتي هذه الواقعة في وقت يشهد فيه قطاع التكنولوجيا سباقا متسارعا نحو تبني وكلاء الذكاء الاصطناعي القادرين على اتخاذ القرارات وتنفيذ المهام بشكل مستقل نيابة عن البشر. ورغم أن هذه الأنظمة تعد بزيادة كبيرة في الكفاءة التشغيلية وتسريع إدارة الأنظمة التقنية، إلا أن غياب الضوابط الصارمة ونقص آليات المراجعة البشرية الإلزامية قد يفتح الباب أمام أخطاء كارثية غير متوقعة.
المشكلة لا تكمن فقط في قدرة هذه الأنظمة على اتخاذ القرار، بل في احتمال اعتمادها على استنتاجات خاطئة أو ما يعرف بالهلوسات البرمجية، وهو ما قد يدفع النظام إلى تنفيذ إجراءات حساسة دون إدراك كامل لعواقبها داخل بيئات العمل الرقمية المعقدة.
هذه الحادثة سلطت الضوء على خطورة منح الأنظمة الذكية صلاحيات إدارية واسعة وغير مقيدة داخل البنية السحابية للشركات الكبرى. كما دفعت خبراء التقنية إلى التحذير من الاستقلالية المفرطة للآلة دون وجود طبقات أمان متعددة.
ويرى مختصون أن ما حدث يمثل جرس إنذار حقيقي لشركات التكنولوجيا التي تعتمد بشكل متزايد على الذكاء الاصطناعي في إدارة أنظمتها. كما يشير إلى ضرورة إعادة النظر في تصميم هذه الأنظمة وإضافة مراحل تحقق بشرية واضحة قبل تنفيذ القرارات الحساسة، لضمان عدم تحول أدوات الذكاء الاصطناعي من وسيلة لزيادة الكفاءة إلى مصدر جديد للمخاطر التقنية.

