نجح فريق بحثي من جامعتي كاليفورنيا وسان دييغو وويسكونسن في تطوير أسلوب جديد لاختراق نماذج جوجل الذكاء الاصطناعي جيميناي باستخدام أدوات التطوير التي توفرها جوجل نفسها والأسلوب المسمى "Fun-Tuning" يعتمد على استغلال ميزة الضبط الدقيق (Fine-Tuning) في النماذج اللغوية الكبيرة لزيادة فعالية هجمات حقن الأوامر (Prompt Injection).
يعمل هذا الأسلوب على تحسين تلقائي لهجمات الاختراق من خلال إضافة بادئات ولواحق غير معتادة إلى الأوامر النصية فعلى سبيل المثال أمر نصي فاشل يمكن أن يصبح ناجحاً عند إضافة عبارات مثل "wandel ! ! ! !" أو "formatted ! ASAP !" وقد أظهرت الاختبارات نتائج مقلقة:
- نسبة نجاح 65% في نموذج Gemini 1.5 Flash
- ارتفاع النسبة إلى 82% في نموذج Gemini 1.0 Pro
- إمكانية نقل الهجمات الناجحة بين النماذج المختلفة
يكمن الخطر في أن هذه الثغرة تستغل آلية أساسية في تدريب النماذج تعرف بـ "درجة الخسارة" (Loss Score) والتي تستخدم عادة لقياس الأخطاء أثناء عملية التدريب هذا يجعل من الصعب إصلاح الثغرة دون التأثير على كفاءة عملية الضبط الدقيق للنماذج.
![]() |
باحثون يكتشفون ثغرة خطيرة في نماذج جوجل الذكاء الاصطناعي باستخدام أدوات الشركة نفسها |
على الرغم من أن جوجل لم تعلق بشكل مباشر على هذا الأسلوب الجديد إلا أن متحدثاً باسم الشركة أكد أن مواجهة هجمات حقن الأوامر تظل أولوية قصوى وأن نماذج جيميناي تخضع لاختبارات مستمرة ضد مختلف التهديدات الأمنية.
يؤكد الباحثون أن إغلاق هذه الثغرة سيكون تحدياً تقنياً كبيراً لأن الآلية المستغَلة تشكل جزءاً أساسياً من عملية تحسين النماذج كما أن نجاح هذا الأسلوب يسلط الضوء على التحديات الأمنية المتزايدة في مجال الذكاء الاصطناعي خاصة مع تطور أساليب الهجوم التي تستغل آلية عمل النماذج نفسها ضدها.