كشفت شركة جوجل في تقرير فني حديث لها أن الإصدار الأحدث من نموذجها للذكاء الاصطناعي "Gemini 2.5 Flash" أظهر أداءً أضعف من نسخته السابقة في بعض مؤشرات السلامة الهامة. ووفقاً للبيانات الداخلية التي أوردتها جوجل فإن هذا النموذج الجديد يميل إلى إنتاج محتوى يتعارض مع إرشادات السلامة الخاصة بالشركة بنسبة 4.1% أكثر في مهام تحويل النص إلى نص وبنسبة 9.6% أكثر في مهام تحويل الصورة إلى نص مقارنةً بسلفه Gemini 2 Flash.
وأوضحت جوجل أن اختبارات السلامة هذه تتم بشكل آلي دون أي تدخل بشري وتشير النتائج إلى أنه على الرغم من أن النموذج الجديد يُظهر دقة أعلى في اتباع التعليمات المقدمة له بشكل عام إلا أن هذه القدرة المتزايدة على الامتثال قد تدفعه أحياناً إلى تنفيذ أوامر قد تتعارض مع سياسات السلامة المعمول بها.
يأتي نشر هذه النتائج في وقت تسعى فيه كبرى شركات الذكاء الاصطناعي بما في ذلك OpenAI و Meta إلى جعل نماذجها أكثر انفتاحاً وقدرة على الاستجابة للمواضيع الحساسة. ورغم أن هذا التوجه يمنح المستخدمين حرية أكبر في التفاعل إلا أنه أدى في بعض الحالات إلى ظهور سلوكيات غير آمنة من جانب النماذج.
![]() |
| تقرير جوجل يكشف عن ضعف سلامة Gemini 2.5 Flash |
وكمثال على ذلك أظهرت التقييمات أن نموذج Gemini 2.5 Flash يمكنه بسهولة توليد محتوى يدعم مواضيع مثيرة للجدل مثل استبدال القضاة البشر بأنظمة ذكاء اصطناعي أو تأييد فكرة المراقبة الحكومية للمواطنين دون الحاجة إلى أوامر قضائية. مثل هذه السلوكيات تثير مخاوف جدية بشأن احتمال تراجع مستويات الأمان والمعايير الأخلاقية في الأجيال الأحدث من النماذج اللغوية الكبيرة.
وقد دعا بعض النقاد مثل توماس وودسايد، شركة جوجل إلى توفير قدر أكبر من الشفافية في تقارير السلامة الخاصة بها ووفقاً لوودسايد فإن السعي لزيادة قدرة النموذج على اتباع التعليمات بدقة قد يأتي على حساب انتهاك سياسات السلامة وهو أمر يصعب على المحللين المستقلين تقييمه بشكل دقيق دون الحصول على تفاصيل وافية وبيانات كاملة تسمح بإجراء تحليل معمق.
