كفاح جوجل في سباق الذكاء الاصطناعي "كواليس"

واجهت نماذج الدردشة بالذكاء الاصطناعي "بارد" و"جيميني" (Bard وGemini) - المنتجتان من جوجل - سلسلة من الأزمات الداخلية خلال مرحلة التطوير بدءًا من إنتاج صور نمطية عنصرية ووصولًا إلى أخطاء أخلاقية وقرارات اعتبرها بعض الموظفين متسرعة وتفتقر إلى الرقابة الكافية.

وفقًا لتقرير مفصل نشره موقع وايرد بعنوان "كواليس عامين من الكفاح في جوجل لمجاراة OpenAI" كانت النماذج الأولية للذكاء الاصطناعي من جوجل تقدم أحيانًا إجابات تمييزية أو مسيئة أو خاطئة أثارت مخاوف خبراء الشركة الداخليين وكان مؤشرًا تحذيريًا على غياب الضوابط الكافية لسلوك هذه الأدوات الناشئة.

بدأ تطوير "بارد" في ديسمبر 2021 بعد إعلان حالة الطوارئ (Code Red) في جوجل ردًا على التقدم السريع لـ OpenAI حيث قررت الشركة تقديم منافس لشات جي بي تي بأسرع وقت ممكن ووفقًا لمديرة المشروع - سيسي شياو (Sissie Hsiao)، كان أمام فريقها 100 يوم فقط لبناء المنتج وجاء هذا الموعد النهائي بينما كانت تعليمات الشركة الرسمية تؤكد على "عدم التضحية بالجودة مقابل السرعة" تعليمات غريبة إلى حداً ما أربكت أعضاء الفريق.

اثناء ذلك استمرت النماذج الأولية لـ بارد في إنتاج مخرجات مليئة بالأخطاء والمشكلات مثل العديد من نماذج الذكاء الاصطناعي اللغوية عانى Bard من "الهلوسة" حيث قدم أحيانًا إجابات مسيئة أو عنصرية ووفقًا لموظف سابق كانت إجابات بارد "غبية" أكثر من كونها خطيرة لدرجة أن بعضها من سوءها كان الموظفين يتداولونها كنكات.

على سبيل المثال عند اعطاء بارد أسماء أشخاص هنود كان الذكاء الاصطناعي يعرفهم تلقائيًا على أنهم "ممثلون في بوليوود" بينما إذا اعطيته اسم صيني يتعرف عليه على انه "عالم كمبيوتر".

وفي مثال آخر طلب مستخدم من النموذج تأليف أغنية راب عن "تتحدث عن القاء بطارية سيارة في البحر" غير الأغنية التي غنتها فرقة "Three 6 Mafia" وقد استجاب بارد للطلب مع ذكر مخيف مروع يتحدث عن "ربط أشخاص بالبطارية وإغراقهم" رغم عدم ذكر أي شيء عن القتل في الطلب الأصلي.

كفاح جوجل في سباق الذكاء الاصطناعي "كواليس"
كواليس عامين من الكفاح في جوجل

شارك حوالي 80 ألف شخص في مرحلة اختبار بارد وتعرض فريق الابتكار المسؤول (Responsible Innovation) في جوجل - الذي عادة ما يستغرق شهورًا لمراجعة أنظمة الذكاء الاصطناعي  لضغوط لتقصير عملية المراجعة فحتى مع العمل الإضافي ليالي وعطلات نهاية الأسبوع لم يتمكن المراجعون من مواكبة سرعة تغييرات بارد وخصائصه الجديدة.

وصرح بعض الأعضاء: "كلما حاولنا تأخير إطلاق بارد تم تجاهل هذه التحذيرات." وردت جوجل على هذه الادعاءات بأنه "لم يقم أي من الفرق المشاركة في قرار الإطلاق أو إيقافه بالتوصية بعدم إطلاق بارد."

وبالانتقال إلى ميزة توليد الصور في نموذج جيميناي فقد واجه هو الاخر تحديات كبيرة متعلقة بالتحيز العرقي بمجرد إطلاق نسخته التجريبية ووفقًا لـ"وايرد" في بعض الحالات إذا استخدم المستخدم كلمات مثل "مغتصب" كان الخوارزمي يعرض صورًا لأشخاص ذوي بشرة السمراء او الأمر الذي أثار فورًا مخاوف فرق المراجعة الداخلية.

اقترح بعض الموظفين تعطيل ميزة توليد الوجوه البشرية مؤقتًا لإتاحة المزيد من الوقت لإصلاح الأخطاء لكن يبدو أن ضغوط الإدارة للإطلاق السريع تغلبت على التحذيرات الأخلاقية ووصف أحد المراجعين الوضع السائد حينها بأنه: "يجب إطلاق هذه الأداة بأي ثمن." وأدى هذا الشعور في النهاية إلى استقالة بعض أعضاء فريق المراجعة.

في فبراير 2024 أطلقت جوجل ميزة إنشاء الصور في تطبيق جيميني لكن بدلًا من المخرجات العنصرية لذوي البشرة السمراء قامت بالعكس تماماً فعلى سبيل المثال عند طلب "صورة لسيناتور أمريكي في القرن التاسع عشر" كان النموذج ينتج فقط صورًا لأفراد من أقليات عرقية (نساء سوداوات ورجال آسيويون وسكان أصليون) دون أي أشخاص بيض وفي مثال آخر عرض جيميني وجوهًا لغير البيض عند طلب صور لجنود نازيين.

سرعان ما واجهت نتائج أداة توليد الصور في جيميني ردود فعل عنيفة من وسائل إعلام محافظة وسياسيين جمهوريين وصفوها بـ"الذكاء الاصطناعي المنحاز" الأمر الذي أدى بدوره إلى انخفاض في أسعار أسهم ألفابت لتقوم الشركة على فورها بتعطيل الميزة، وكان تعد هذه المرة الثانية التي يتسبب فيها الذكاء الاصطناعي بإنخفاض أسهم الشركة عقب الإنخفاض الذي سجلته قبل ذلك بعد عرض الإطلاق الأول الخاص ببارد.

لاحقًا بأمر من "سوندار بيتشاي" سُمح لفرق جيميني بتعيين موظفين جدد في مجال الثقة والسلامة كما تم وضع مبادئ أخلاقية جديدة تحت قيادة "جيمس مانيكا" تؤكد على امتثال النموذج لأوامر المستخدمين وتلبية احتياجاتهم وتقديم تجربة آمنة.

أظهرت تجربة "بارد" و"جيميني" أن الإسراع في سباق الذكاء الاصطناعي دون بنية تحتية أخلاقية ورقابية كافية يمكن أن يؤدي إلى خلق صدامات ثقافية وتوليد كراهية قائمة على العنصرية والتمييز العرقي ورغم أن جوجل تمكنت من السيطرة على مشاكل أدوات الذكاء الاصطناعي الخاصة بها بشكل كبير إلا أن هذا يعد تحذيرًا مهم للشركات الأخرى العاملة في هذا المجال يجب عليها التعلم منه.

إرسال تعليق (0)
أحدث أقدم