أعلن المعهد الوطني للمعايير والتكنولوجيا بالولايات المتحدة عن إطلاق مبادرة جديدة تحت عنوان معايير وكلاء الذكاء الاصطناعي، في خطوة تنظيمية مهمة تهدف إلى معالجة التحديات الأمنية المرتبطة بالوكلاء المستقلين الذين يعملون دون تدخل بشري مباشر. وتركز المبادرة على وضع أطر واضحة تضمن أمان وموثوقية هذه الأنظمة، خاصة مع الاعتماد المتزايد من قبل الشركات على الوكلاء الذكيين لإدارة البيانات الحساسة والعمليات التشغيلية المعقدة على مستوى عالمي.
وبحسب موقع سيمي كوندكتور إنجينيرنج، تهدف المبادرة إلى تحديد المعايير الفنية والبروتوكولات الأمنية التي يجب على المطورين الالتزام بها لضمان عدم خروج الوكلاء المستقلين عن السيطرة أو تعرضهم للاختراق. وتأتي هذه الخطوة استجابة للتحذيرات المستمرة من خبراء الأمن السيبراني حول الثغرات الأمنية الجديدة التي قد تنشأ عند تفاعل أنظمة الذكاء الاصطناعي مع البرمجيات والأدوات الأخرى، ما قد يهدد البنى التحتية الرقمية للمؤسسات والحكومات.
كما تسعى المبادرة إلى إنشاء لغة تقنية موحدة للمطورين تضمن بناء وكلاء أذكياء يمتلكون قدرات دفاعية ذاتية ويعملون وفق قواعد أخلاقية ومهنية محددة. ويهدف هذا التنظيم الجديد إلى منع التفاعلات غير المقصودة أو الضارة بين أنظمة الذكاء الاصطناعي المختلفة، مما يقلل من احتمالية وقوع حوادث تقنية كبرى ناتجة عن استقلالية القرار.
وتشكل هذه المبادرة نقطة تحول في كيفية تعامل المجتمع الدولي مع الذكاء الاصطناعي، إذ تنتقل من مرحلة التنظير الأخلاقي إلى مرحلة التنظيم الفني الدقيق. ومع استمرار تطور وكلاء الذكاء الاصطناعي ليصبحوا جزءًا أساسيًا من الاقتصاد الرقمي، تظهر الحاجة الماسة إلى معايير عالمية موحدة تضمن أن يظل هذا التطور مفيدًا وآمنًا، مما يعزز الثقة العامة في التقنيات المستقلة ويحمي سلاسل التوريد البرمجية من التهديدات المتطورة.

