Grok يواجه انتقادات بسبب الصور العميقة غير المقبولة
أدى إطلاق ميزة تعديل الصور بالذكاء الاصطناعي على منصة Grok التابعة لشركة xAI إلى فوضى على منصة X، حيث تم استخدامها لتوليد عدد كبير من الصور العميقة الجنسية غير المتوافقة. كما كتب هايدن فيلد: "تظهر لقطات الشاشة أن Grok تستجيب للطلبات لوضع نساء حقيقيات في ملابس داخلية وجعلهن يفتحن أرجلهن، ووضع أطفال صغار في ملابس السباحة."
وصف رئيس الوزراء البريطاني كير ستارمر الصور العميقة بأنها "مقززة"، قائلاً: "يجب على X أن تتخذ إجراءاتها وتزيل هذه المواد. وسنتخذ إجراءات بشأن هذا لأنه ببساطة غير مقبول." قامت X بتقييد الميزة قليلاً من خلال فرض اشتراك مدفوع لتوليد الصور عن طريق وضع علامة على Grok على X، لكن محرر الصور بالذكاء الاصطناعي لا يزال متاحًا مجانًا بخلاف ذلك.
لا، لم تقم Grok بوضع ميزة الصور العميقة خلف جدار الدفع
في ظل تزايد ردود الفعل السلبية على الفيض من الصور العميقة الجنسية غير المتوافقة للبالغين والأطفال التي تم إنشاؤها بواسطة المنصة، قامت منصة X بتقييد الوصول جزئيًا إلى قدرات تعديل الصور الخاصة بـ Grok. اعتبارًا من كتابة هذه السطور، لم يعد بإمكان المستخدمين توليد الصور كردود من حساب @grok مجانًا، لكن أدوات تعديل الصور الخاصة بـ Grok لا تزال متاحة لأي مستخدم على X لإنشاء الصور، سواء كانت جنسية أو عادية.
كان بإمكان مستخدمي X سابقًا طلب من Grok - عن طريق وضع علامة @grok في تغريدة - تعديل أو إنشاء صور على المنصة. الآن، يواجه المستخدمون الذين يحاولون ذلك ردًا تلقائيًا من حساب الدردشة، يخبرهم بأن "توليد الصور وتعديلها مقصور حاليًا على المشتركين المدفوعين." يتضمن الرد رابطًا يشجعهم على الاشتراك في البرامج المدفوعة لـ X "لإلغاء قفل هذه الميزات."
رئيس وزراء المملكة المتحدة يقول: "سنتخذ إجراءات" ضد الصور العميقة المقززة لـ Grok
قال رئيس وزراء المملكة المتحدة كير ستارمر إن البلاد ستتخذ إجراءات ضد منصة X بعد تقارير تفيد بأن روبوت الدردشة الخاص بـ Grok يقوم بإنشاء صور عميقة جنسية للبالغين والقصر، كما أفادت بذلك سابقًا The Telegraph وSky News.
"إنه أمر مقزز،" يقول ستارمر خلال مقابلة مع محطة Greatest Hits Radio. "يجب على X أن تتخذ إجراءات وتزيل هذه المواد. وسنتخذ إجراءات بشأن هذا لأنه ببساطة غير مقبول."
آلة الصور العميقة لـ X تثير غضب صانعي السياسات حول العالم
لم تتوقف روبوتات الدردشة Grok على X عن قبول طلبات المستخدمين لتجريد النساء، وفي بعض الحالات، القصر الظاهرين إلى ملابس السباحة التي تم إنشاؤها بواسطة الذكاء الاصطناعي. وفقًا لبعض التقارير، فإن تدفق الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي يتضمن محتوى أكثر تطرفًا قد ينتهك القوانين ضد الصور الحميمة غير التوافقية (NCII) ومواد الاعتداء الجنسي على الأطفال (CSAM). حتى في الولايات المتحدة، حيث يمتلك إيلون ماسك، مالك X، علاقات وثيقة مع الحكومة، ينتقد بعض المشرعين المنصة — على الرغم من أن الإجراءات الواضحة لا تزال نادرة.
تحدث العديد من المنظمين الدوليين ضد تصرفات Grok في انتهاك الخصوصية. حيث صرح المنظم البريطاني للاتصالات Ofcom في بيان له أنه قد "تواصل بشكل عاجل مع X و xAI لفهم الخطوات التي اتخذوها للامتثال لواجباتهم القانونية لحماية المستخدمين في المملكة المتحدة"، وسيقومون بتقييم "المشكلات المحتملة المتعلقة بالامتثال التي تستدعي التحقيق". كما قال المتحدث باسم المفوضية الأوروبية توماس رينييه في مؤتمر صحفي إن مخرجات Grok كانت "غير قانونية" و"مروعة". وهددت وزارة تكنولوجيا المعلومات في الهند بسحب الحصانة القانونية لـ X عن المنشورات التي ينشئها المستخدمون ما لم تقدم وصفًا سريعًا للإجراءات التي اتخذتها لمنع المحتوى غير القانوني. كما تتابع الهيئات التنظيمية في أستراليا والبرازيل وفرنسا وماليزيا التطورات.
هل يمكن للقانون إيقاف Grok عن تعرية الأطفال؟
بدأ Grok عام 2026 كما بدأ عام 2025: تحت النار بسبب الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي.
قضى روبوت الدردشة الخاص بإيلون ماسك الأسبوع الماضي في إغراق X بصور عميقة جنسية غير consensual للبالغين والأطفال. وتظهر لقطات الشاشة المتداولة Grok وهو يستجيب لطلبات لوضع نساء حقيقيات في ملابس داخلية وجعلهن يفتحن أرجلهن، ووضع أطفال صغار في ملابس سباحة. وتصف التقارير صورًا تمت إزالتها لاحقًا تحتوي على محتويات أكثر فظاعة. أكد أحد مستخدمي X في محادثة مع The Verge أنه صادف عدة صور للأطفال مع ما أطلق عليه المروج "غلاف الدونات" على وجوههم، والتي يبدو أنها تمت إزالتها منذ ذلك الحين. في مرحلة ما، كان Grok ينتج صورة جنسية غير consensual واحدة كل دقيقة تقريبًا، وفقًا لتقدير واحد.
Grok يزيل الملابس من أي شخص، بما في ذلك القاصرين
يقوم Grok بإزالة الملابس من صور الأشخاص دون موافقتهم بعد طرح ميزة هذا الأسبوع التي تسمح لمستخدمي X بتحرير أي صورة على الفور باستخدام الروبوت دون الحاجة إلى إذن المرسل الأصلي. ليس فقط أن المرسل الأصلي لا يتم إخباره إذا تم تعديل صورته، ولكن يبدو أن Grok لديه القليل من الضوابط لمنع أي شيء أقل من التعري الكامل. في الأيام الأخيرة، غمر X بصور لنساء وأطفال يظهرون وكأنهم حوامل، أو بلا تنورات، أو يرتدون ملابس سباحة، أو في مواقف جنسية أخرى. كما تم استخدام صور قادة العالم والمشاهير في الصور التي أنشأها Grok.
أفادت شركة Copyleaks المتخصصة في التحقق من صحة الذكاء الاصطناعي أن الاتجاه لإزالة الملابس من الصور بدأ مع طلب منشئي المحتوى البالغين من Grok صورًا مثيرة لأنفسهم بعد إصدار ميزة تحرير الصور الجديدة. ثم بدأ المستخدمون في تطبيق مطالبات مماثلة على صور مستخدمين آخرين، معظمهم من النساء، الذين لم يوافقوا على التعديلات. وأشارت النساء إلى الزيادة السريعة في إنشاء الصور العميقة على X لوسائل الإعلام المختلفة، بما في ذلك Metro وPetaPixel. كان Grok قادرًا بالفعل على تعديل الصور بطرق جنسية عند الإشارة إليه في منشور على X، ولكن يبدو أن أداة "تحرير الصورة" الجديدة قد حفزت الزيادة الأخيرة في الشعبية.
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!