خضع نموذج DeepSeek الصيني الشهير للغات متعددة اللغات لعملية تجديد شاملة، تُركز على الامتثال الحكومي، ووفقًا لرويترز، طُوّر إصدار جديد يُسمى DeepSeek-R1-Safe لتجاوز القضايا السياسية المثيرة للجدل، والتوافق بشكل أكبر مع قيود الكلام التي تفرضها الجهات التنظيمية الصينية.
ومن المثير للاهتمام أن DeepSeek لم تُطوّر هذا الإصدار الجديد بنفسها، بل قامت هواوي، بالتعاون مع باحثين من جامعة تشجيانغ، بإعادة تدريب نموذج DeepSeek R1 مفتوح المصدر باستخدام 1000 رقاقة Ascend AI الخاصة بها.
وكان هدفهم تضمين ضمانات أكثر صرامة في النظام دون المساس الكبير بالأداء، وتزعم هواوي الآن أن الإصدار المُحدّث لم يفقد سوى حوالي 1% من قدرته وسرعته الأصلية، مع تحقيق مقاومة أقوى بكثير لـ “الخطاب السام والضار، والمحتوى السياسي الحساس، والتحريض على الأنشطة غير القانونية”.
وفي ظاهر الأمر، تبدو النتائج مبهرة، ووفقاً لشركة هواوي، فإن نظام DeepSeek-R1-Safe “ناجح بنسبة تقارب 100%” في تجنب المواضيع الحساسة سياسياً في التفاعلات العادية، ومع ذلك، لا تزال هناك بعض القيود،فعندما يستخدم المستخدمون أساليب مثل لعب الأدوار أو إخفاء نواياهم من خلال توجيهات غير مباشرة، ينخفض معدل نجاح النموذج بشكل حاد إلى 40% فقط، وكما هو الحال مع العديد من أنظمة الذكاء الاصطناعي المتقدمة، لا تزال السيناريوهات الافتراضية تغري النموذج بتجاوز قيوده.
ويعكس المشروع جهود بكين المستمرة لتنظيم الذكاء الاصطناعي بدقة، حيث تُلزم السلطات الصينية جميع أنظمة الذكاء الاصطناعي المُوجهة للجمهور بالامتثال للقيم الوطنية وحدود التعبير المُحددة، وتتبع الأدوات الحالية هذا النهج بالفعل: فعلى سبيل المثال، أفادت التقارير أن روبوت الدردشة “إرني” من بايدو يحظر الأسئلة المتعلقة بالسياسة الداخلية للصين أو الحزب الشيوعي الحاكم، ويتبع DeepSeek-R1-Safe مسارًا مشابهًا، مما يضمن بقاء التكنولوجيا متوافقة مع الإرشادات الرسمية.
حتى الشركات الأمريكية تُقر بالتأثير الثقافي على نماذجها، على سبيل المثال، صرّحت OpenAI علنًا بأن ChatGPT “يميل إلى وجهات النظر الغربية”، وأثار هذا الاعتراف جدلاً حول إمكانية وجود ذكاء اصطناعي محايد حقاً، أو ما إذا كانت النماذج ستعكس دائماً تحيزات المجتمعات التي تُدرّب فيها.
واتخذت حكومة الولايات المتحدة أيضاً خطواتٍ لتحديد اتساق الذكاء الاصطناعي، وففي وقتٍ سابق من هذا العام، وفي ظل إدارة ترامب، كُشف النقاب عن خطة عمل الذكاء الاصطناعي الأمريكية.
وتشترط هذه الخطة أن يكون أي نموذج ذكاء اصطناعي يتفاعل مع الوكالات الحكومية “محايداً وغير متحيز”، إلا أن تعريف الحياد يحمل نكهةً سياسيةً واضحة، ينص أمرٌ تنفيذيٌّ وقّعه ترامب على أن النماذج المؤهلة يجب أن ترفض “العقيدة المناخية المتطرفة”، و”التنوع والمساواة والشمول”، بالإضافة إلى “نظرية العرق النقدية، والتحول الجنسي، والتحيز اللاواعي، والتقاطعية، والعنصرية المنهجية”.