فرضت منصة إكس التي كانت تعرف سابقا بتويتر قيودا جديدة على استخدام نموذج الذكاء الاصطناعي غروك بعد سلسلة وقائع صادمة استغل فيها بعض المستخدمين قدراته لمحاولة إنشاء صور تظهر أشخاصا وكأنهم بلا ملابس اعتمادا على صورهم الأصلية، هذه الممارسات فجرت موجة غضب واسعة بسبب ما تحمله من انتهاك صارخ للخصوصية والسلامة الرقمية.
وبحسب ما تداولته تقارير تقنية فإن الشركة لم تتجه إلى معالجة الخلل الجوهري في طريقة عمل غروك أو كبح قدراته في هذا الجانب الحساس، بل اكتفت بتقليص نطاق الوصول إلى الأداة وتشديد بعض سياسات الاستخدام، وهو ما يراه مختصون في الذكاء الاصطناعي خطوة شكلية لا تمس جوهر المشكلة ولا توفر حماية حقيقية للمستخدمين من إساءة الاستغلال.
القضية بدأت عندما لجأ بعض المستخدمين إلى اختبار إمكانات غروك في معالجة الصور وتوليد محتوى بصري انطلاقا من صور حقيقية، محاولين دفعه إلى إنتاج نسخ مزيفة منزوعة الملابس، وهي ممارسة باتت معروفة في الوسط التقني باسم نزع الملابس رقميا أو اي اي اندرسنغ، ومع انتشار هذه التجارب ظهرت مخاوف حقيقية من تحولها إلى أداة تشهير وابتزاز ونشر محتوى إباحي غير حقيقي.
وتصنف هذه الممارسات على أنها نوع من العنف الرقمي والاعتداء المباشر على الخصوصية، إذ يمكن استخدامها لتدمير سمعة الأفراد أو الضغط عليهم نفسيا وماديا، ما وضع منصة إكس وغيرها من الشركات التي تقدم هذه التقنيات تحت ضغط متزايد لتبني آليات حماية أكثر صرامة وفعالية.
رد إكس على هذه التطورات جاء عبر تقليص عدد المستخدمين القادرين على الوصول إلى غروك أو إلى بعض قدراته، وربط الاستخدام بمستويات اشتراك معينة، إلى جانب تشديد البنود التي تمنع إنشاء محتوى جنسي أو مسيء بالاعتماد على صور حقيقية، لكن مراقبين يرون أن هذا النهج يركز على من يستطيع استخدام الأداة أكثر مما يركز على كيفية عمل الأداة نفسها.
فبدلا من تعديل النموذج أو بناء حواجز تقنية تمنعه من إنتاج هذا النوع من الصور بشكل منهجي، اعتمدت المنصة على قيود وصول وسياسات مكتوبة ورسائل تحذير، وهو ما يبقي احتمالات إساءة الاستخدام قائمة، خاصة مع سهولة مشاركة النتائج خارج المنصة ووجود طرق للالتفاف على الضوابط عبر طلبات ملتوية أو حسابات مختلفة.
هذه الحوادث أعادت إلى الواجهة المخاوف الواسعة المرتبطة بنماذج الذكاء الاصطناعي التوليدية وقدرتها على إنتاج صور واقعية للغاية لأشخاص حقيقيين في أوضاع لم تحدث أصلا، مثل الصور العارية المزيفة أو محتوى الديب فيك، وهي تقنيات تطرح أسئلة قانونية وأخلاقية معقدة حول المسؤولية والحماية والحقوق الفردية.
خبراء الخصوصية يحذرون من أن هذه التكنولوجيا لا تستهدف المشاهير فقط بل يمكن أن تطال أي شخص عادي، سواء عبر التنمر الإلكتروني أو الابتزاز أو العنف القائم على النوع الاجتماعي، وهو ما يتطلب من الشركات المشغلة لهذه النماذج اتخاذ خطوات استباقية وحقيقية لتحييد المخاطر بدلا من الاكتفاء بتقييد الوصول أو إضافة بنود لا تطبق فعليا على أرض الواقع.
وفي ظل هذا الجدل تتصاعد الدعوات في الأوساط التقنية والقانونية إلى إدخال ضوابط فنية مباشرة داخل نماذج الذكاء الاصطناعي تمنع استخدامها في نزع الملابس أو إنتاج محتوى جنسي غير توافقي أو تشهيري، مثل تدريب النماذج على رفض هذه الطلبات ورفع حساسية أنظمة الكشف عن المحتوى الضار.
كما يطالب مختصون بتشريعات أكثر وضوحا تجرم إنتاج أو مشاركة الصور المزيفة التي تنتهك الخصوصية، وتلزم الشركات التقنية بتحمل جزء من المسؤولية عند التقصير في توفير إجراءات حماية كافية، بما في ذلك إتاحة أدوات سهلة وسريعة للإبلاغ عن المحتوى المسيء وإزالته.
ورغم أن خطوة إكس بتقييد الوصول إلى غروك تعكس اعترافا ضمنيا بوجود مشكلة حقيقية، إلا أن كثيرين يرون أنها لا ترقى إلى مستوى الإصلاح المطلوب، ما يترك الباب مفتوحا أمام استمرار الجدل حول مدى التزام المنصة وغيرها من مزودي خدمات الذكاء الاصطناعي بحماية المستخدمين من التداعيات الخطيرة لسوء استخدام هذه التقنيات.

