• ×

قائمة

Rss قاريء

إكس تقيّد وصول المستخدمين إلى «غروك» بعد حوادث «نزع الملابس» من الصور

زيادة حجم الخط مسح إنقاص حجم الخط
متابعات - نبراس 

فرضت منصة إكس (تويتر سابقاً) قيوداً جديدة على استخدام نموذج الذكاء الاصطناعي «غروك» (Grok) بعد سلسلة حوادث استغل فيها بعض المستخدمين قدراته في محاولة إنشاء صور تُظهر أشخاصاً وكأنهم بلا ملابس اعتماداً على صورهم الأصلية، وهي ممارسة أثارت موجة انتقادات واسعة تتعلق بالخصوصية والسلامة الرقمية.

وبدلاً من معالجة الخلل الجوهري في النموذج أو تقييد قدراته التقنية في هذا الجانب، اكتفت الشركة – بحسب التقارير – بتقليص نطاق الوصول إلى «غروك» وتشديد بعض سياسات الاستخدام، وهو ما يراه خبراء في مجال الذكاء الاصطناعي خطوة شكلية لا تعالج جوهر المشكلة ولا تحمي المستخدمين بشكل كافٍ من إساءة الاستخدام.

استغلال «غروك» في إنشاء صور مُسيئة
تعود القضية إلى قيام بعض المستخدمين بتجربة إمكانات «غروك» في معالجة الصور وتوليد محتوى بصري اعتماداً على صور شخصية حقيقية، حيث حاولوا دفع النموذج إلى إنتاج نسخ «منزوعة الملابس» من تلك الصور، وهي تقنية باتت تُعرف على نطاق واسع في الأوساط التقنية والإعلامية باسم «نزع الملابس رقمياً» أو AI Undressing.

وتُعد هذه الممارسات شكلاً من أشكال العنف الرقمي والاعتداء على الخصوصية، إذ يمكن أن تُستخدم لتشويه سمعة الأفراد أو ابتزازهم أو نشر محتوى إباحي غير حقيقي، ما يضع منصات التقنية التي توفّر هذه الأدوات تحت ضغط متزايد لتطبيق آليات حماية أكثر صرامة.

إجراءات إكس: التقييد بدلاً من الإصلاح
ردّاً على هذه الحوادث، اتجهت إكس إلى تقليص عدد المستخدمين القادرين على الوصول إلى «غروك» أو بعض قدراته، وربط الاستخدام بمستويات اشتراك محددة، إلى جانب تعزيز بنود في سياسة الاستخدام تمنع إنشاء محتوى جنسي أو مُسيء اعتماداً على صور حقيقية.

إلا أن هذه الإجراءات تركز – وفقاً لمراقبين – على من يستطيع استخدام الأداة أكثر مما تركز على كيفية عمل الأداة ذاتها. فبدلاً من تعديل النموذج أو بناء ضوابط تقنية تمنع عليه بشكل منهجي إنتاج هذا النوع من الصور، اكتفت المنصة بالتشديد على من يُسمح له بالوصول إلى الخدمة، مع الاعتماد على سياسات مكتوبة ورسائل تحذير.

مثل هذا النهج يُبقي احتمالات إساءة الاستخدام قائمة، خاصة في ظل سهولة مشاركة النتائج خارج المنصة ووجود طرق للالتفاف على الضوابط السياساتية عبر طلبات ملتوية أو حسابات مختلفة.

مخاوف متزايدة حول السلامة والخصوصية
تسلّط هذه الحوادث الضوء على إشكالية أوسع تتعلق بنماذج الذكاء الاصطناعي التوليدية وقدرتها على إنشاء صور واقعية للغاية لأشخاص حقيقيين في أوضاع لم تحدث فعلياً، مثل الصور العارية المزيفة أو محتوى «الديب فيك» (Deepfake)، وهو ما يثير أسئلة قانونية وأخلاقية معقدة.

ويحذّر خبراء الخصوصية من أن هذه التكنولوجيا يمكن أن تُستخدم لاستهداف أفراد عاديين، وليس المشاهير فقط، سواء عبر التنمّر الإلكتروني أو الابتزاز أو العنف القائم على النوع الاجتماعي، ما يتطلب من الشركات المشغِّلة لهذه النماذج اتخاذ خطوات استباقية وحقيقية لتحييد مخاطرها، وليس الاكتفاء بتقييد الوصول أو إضافة بنود في شروط الاستخدام لا تُنفَّذ فعلياً على أرض الواقع.

دعوات لإصلاحات تقنية وتشريعية
تزايدت الدعوات في الأوساط التقنية والقانونية إلى ضرورة تضمين ضوابط فنية داخل نماذج الذكاء الاصطناعي نفسها تمنع بشكل حاسم استخدامها في «نزع الملابس» أو إنتاج محتوى جنسي غير توافقي أو تشهيري، مثل تدريب النموذج على رفض مثل هذه الطلبات أو رفع حساسية أنظمة الكشف عن المحتوى الضار.

كما يطالب مختصون بسن تشريعات أكثر وضوحاً تُجرّم إنتاج أو مشاركة الصور المزيفة التي تنتهك الخصوصية، وتحمِّل الشركات التقنية جزءاً من المسؤولية في حال إهمالها اتخاذ إجراءات حماية كافية، بما في ذلك توفير آليات سهلة وسريعة للإبلاغ عن المحتوى المسيء وإزالته.

ورغم أن خطوة إكس في تقييد الوصول إلى «غروك» تعكس اعترافاً بوجود مشكلة، إلا أن كثيرين يرون أنها لا ترتقي إلى مستوى الإصلاح المطلوب، ما يترك الباب مفتوحاً أمام استمرار النقاش حول مدى التزام المنصة – وغيرها من مقدمي خدمات الذكاء الاصطناعي – بحماية المستخدمين من التداعيات الخطيرة لسوء استخدام هذه التقنيات.
للتقييم، فضلا تسجيل   دخول
بواسطة : admin123
 0  0  35

التعليقات ( 0 )