
أثار روبوت الدردشة «جروك»، التابع لشركة xAI للذكاء الاصطناعي المملوكة لإيلون ماسك، عاصفة من الجدل بعد أن أطلق تصريحات تمجّد الزعيم النازي أدولف هتلر وتدعو صراحة إلى «محرقة ثانية».
وفتحت الحادثة، التي وقعت على منصة إكس، الباب أمام تساؤلات خطيرة حول فقدان السيطرة على نماذج الذكاء الاصطناعي، ومدى تورّط خوارزميات متطورة في تكرار خطاب الكراهية والتطرف بشكل علني.
وفقا لمجلة «ذا أتلانتيك» الأمريكية، شهد عام 2025 أزمة جديدة في عالم الذكاء الاصطناعي بعد أن بدأت منصة إكس – المملوكة لإيلون ماسك – ببث محتوى معادٍ للسامية من خلال روبوت المحادثة Grok، الذي طورته شركة xAI التابعة لماسك.
وفي سلوك صادم، بدأ الروبوت في الإشادة بـ أدولف هتلر، وكتب ضمن ردوده أن الزعيم النازي نجح في “التعامل مع الكراهية ضد البيض”، مما أعاد إلى الأذهان أكثر فصول التاريخ ظلامًا.
جروك يعيد نشر ميمات نازية ويهاجم اليهود علنًا
في منشور آخر، خص “جروك” مستخدمة تدعى شتاينبرج، ووصفها بأنها “يسارية متطرفة”، واتهمها زورًا بأنها احتفلت بوفاة أطفال بيض في فيضانات تكساس، معتبرًا أنهم “فاشيون محتملون في المستقبل”.
والأخطر أن “جروك” لم يكتف بذلك، بل شارك في نشر ميمات تعود جذورها للنازيين الجدد على المنصة، وامتدح مرة أخرى أدولف هتلر في سياق الدعوة إلى “محرقة ثانية”، حسب وصف أحد المتابعين.
كما استخدم عبارات مثيرة للجدل مثل “اليساريين الراديكاليين ذوي الألقاب الأشكنازية”، في إشارة إلى يهود أوروبا الوسطى والشرقية، متهمًا إياهم بدفع خطاب الكراهية ضد البيض.
وهذه ليست المرة الأولى التي يظهر فيها هذا النمط، ففي مايو الماضي، بدأ جروك في استخدام مصطلح “الإبادة الجماعية للبيض” ردًا على منشورات مستخدمين.
حينها، صرحت شركة xAI، أن السبب كان تعديلًا غير مصرح به على الكود البرمجي في الساعة 3:15 صباحًا.
ما يزيد من خطورة الوضع أن كل هذا يحدث على منصة يملكها أغنى رجل في العالم، إيلون ماسك، الذي كان حتى وقت قريب جزءًا من الإدارة الرئاسية الأمريكية.
وفي الوقت الذي كان فيه “جروك” ينشر كراهيته، كان ماسك يشارك منشورات عن جيفري إبستين وألعاب الفيديو، في تجاهل صارخ لما يحدث على منصته.
وفي تطور مثير، أعلنت xAI مؤخرًا عن إطلاق Grok 4 خلال بث مباشر هذا الأسبوع، بحسب مجلة «ذا أتلانتيك».
ومع ذلك، كشفت وثائق داخلية أن توجيهات Grok قد تم تعديلها لتزعم أن الإصدار الرابع لم يصدر بعد، وهو ما يشير إلى احتمال إخفاء تجربة سرية لاختبار النسخة الجديدة – على غرار ما فعلته مايكروسوفت سابقًا باستخدام GPT-4 من OpenAI قبل الإعلان الرسمي.
ومن خلال تحديثات توجيهاته، أُمرت Grok بالرد على الأسئلة حتى لو كانت “غير صحيحة سياسيًا”، طالما كان بإمكانه دعمها بمصادر.
كما شجّع النظام الروبوت على استخدام مصادر متنوعة حتى لو كانت من منشورات يمينية متطرفة.
وهذه التعديلات، رغم ظاهرها الحيادي، فتحت الباب أمام تكرار خطاب الكراهية بشكل منمّق.
واعترفت شركة xAI للذكاء الاصطناعي أخيرًا بالمشكلة وقالت إنها تعمل على إزالة المنشورات المسيئة، إلا أن الحادثة كشفت خللًا هيكليًا أعمق في طريقة بناء وتدريب نماذج الذكاء الاصطناعي التوليدي.
إذ حذر باحثون في وقت سابق هذا العام من أن تدريب هذه النماذج على محتوى عدائي يمكن أن “يخل بمحاذاتها الأخلاقية” بشكل دائم.
وفي مثال صادم آخر، كشف تقرير بحثي أن نموذجًا من OpenAI اعتبر في ردوده أن “النساء أقل شأنًا من الرجال”، وأنهن يجب أن يعدن إلى أدوارهن التقليدية، بل اختار شخصيات نازية مثل جوبلز وهيملر ضمن قائمة “شخصيات العشاء المفضلة”.
أزمة مزدوجة تهدد مستقبل الذكاء الاصطناعي
وتسلط الحالة المتفاقمة لـ”جروك” الضوء على مشكلتين أساسيتين: الأولى أن نماذج الذكاء الاصطناعي، مهما بلغ تطورها، ستعكس بعضًا من أسوأ ما أنتجته البشرية، إن لم يتم وضع ضوابط صارمة.
والثانية، أن تعقيد هذه النماذج يجعل من الصعب حتى على مطوريها فهم أسباب انحرافها، وفقا لمجلة «ذا أتلانتيك» الأمريكية.
وما يزيد القلق أن جروك، ليس فقط أداة دردشة، بل يعكس روح منصة إكس نفسها، ويبدو أن تصميمه كان متعمدًا ليحاكي خطابًا “مناهضًا للاستيقاظ” بمعناه السياسي، لكنه تجاوز كل الحدود الأخلاقية ليصبح بوقًا لليمين المتطرف.