أعرب باحثون في مجال سلامة الذكاء الاصطناعي من شركات “OpenAI” و”Anthropic” ومنظمات أخرى، عن قلقهم علنًا بشأن ما وصفوه بثقافة السلامة “المتهورة” و”غير المسؤولة على الإطلاق” في شركة “xAI”، وهي الشركة الناشئة المملوكة لإيلون ماسك والتي تقدر قيمتها بمليارات الدولارات.
وتأتي هذه الانتقادات في أعقاب أسابيع من الفضائح التي طالت شركة “xAI” وألقت بظلالها على التقدم التكنولوجي الذي تحققه الشركة.
ففي الأسبوع الماضي، أدلى روبوت الدردشة الخاص بالشركة “Grok”، بتعليقات معادية للسامية وأطلق على نفسه مرارًا وتكرارًا اسم “ميكا هتلر”.
وبعد فترة وجيزة من سحب الروبوت لمعالجة المشكلة، أطلقت الشركة نموذجًا رائدًا أكثر قدرة، وهو “Grok 4″، والذي وجد موقع “TechCrunch” وآخرون أنه يستشير آراء إيلون ماسك السياسية الشخصية للمساعدة في الإجابة على القضايا الشائكة.
وفي آخر التطورات، أطلقت “xAI” رفقاء ذكاء اصطناعي على شكل فتاة أنمي ذات إيحاءات جنسية مفرطة وباندا عدواني بشكل مبالغ فيه.
وعلى الرغم من أن المزاح الودي بين موظفي مختبرات الذكاء الاصطناعي المتنافسة أمر طبيعي، يبدو أن هؤلاء الباحثين يدعون إلى زيادة الانتباه لممارسات السلامة في “xAI”، والتي يزعمون أنها تتعارض مع معايير الصناعة.
وقال بوعز باراك، أستاذ علوم الكمبيوتر في إجازة حاليًا من جامعة هارفارد للعمل في أبحاث السلامة بشركة “OpenAI”، في منشور له يوم الثلاثاء على منصة “X”: “لم أكن أرغب في الكتابة عن سلامة Grok لأنني أعمل لدى منافس، لكن الأمر لا يتعلق بالمنافسة. أنا أقدر العلماء والمهندسين في xAI، لكن الطريقة التي تم بها التعامل مع السلامة غير مسؤولة تمامًا”.
ويعترض باراك بشكل خاص على قرار “xAI” عدم نشر “بطاقات النظام” (System Cards)، وهي تقارير قياسية في الصناعة تفصّل أساليب التدريب وتقييمات السلامة، وتعتبر جهدًا ينم عن حسن النية لمشاركة المعلومات مع مجتمع البحث. ونتيجة لذلك، يقول باراك إنه من غير الواضح ما هو تدريب السلامة الذي تم إجراؤه على “Grok 4”.
في المقابل، تتمتع شركتا “OpenAI” و”Google” بسمعة متفاوتة فيما يتعلق بمشاركة بطاقات النظام على الفور عند الكشف عن نماذج جديدة. لكن تاريخيًا، تنشر هذه الشركات تقارير السلامة لجميع نماذج الذكاء الاصطناعي الرائدة قبل دخولها مرحلة الإنتاج الكامل.
كما انتقد صموئيل ماركس، وهو باحث في مجال سلامة الذكاء الاصطناعي في “Anthropic”، قرار “xAI” عدم نشر تقرير السلامة، واصفًا هذه الخطوة بـ “المتهورة”.
وكتب ماركس في منشور على “X”: “ممارسات النشر لدى Anthropic وOpenAI وGoogle بها مشكلات، لكنها على الأقل تفعل شيئًا، أي شيء، لتقييم السلامة قبل النشر وتوثيق النتائج. أما xAI فلا تفعل ذلك”.
ومن المفارقات في ممارسات السلامة المشكوك فيها لدى “xAI” أن ماسك لطالما كان أحد أبرز المدافعين عن سلامة الذكاء الاصطناعي. فقد حذر الملياردير الذي يقود “xAI” و”Tesla” و”SpaceX” مرارًا من احتمالية تسبب أنظمة الذكاء الاصطناعي المتقدمة في نتائج كارثية للبشر. ومع ذلك، يزعم الباحثون في المختبرات المنافسة أن شركة “xAI” تنحرف عن معايير الصناعة المتعلقة بإصدار نماذج الذكاء الاصطناعي بأمان، مما قد يعزز عن غير قصد حجة المشرعين لفرض قواعد تنظيمية صارمة.
وحتى بالنسبة للمشككين في السيناريوهات الكارثية، هناك حجة قوية تشير إلى أن سلوك “Grok” السيئ يجعل المنتجات التي يدعمها اليوم أسوأ بكثير. فقد نشر الروبوت معاداة السامية على منصة “X” هذا الأسبوع، ويحاول ماسك دمج غروك”Grok” بشكل أعمق في سيارات تسلا، كما تسعى الشركة لبيع نماذجها للبنتاغون والمؤسسات الأخرى.
ويرى العديد من الباحثين أن اختبارات السلامة لا تضمن فقط عدم وقوع أسوأ النتائج، بل تحمي أيضًا من المشكلات السلوكية قصيرة المدى التي تلقي بظلالها على التقدم السريع الذي تحققه “xAI” في تطوير نماذج ذكاء اصطناعي رائدة.