أنثروبيك تقدم حماية تمنع الاستخدام السيئ للذكاء الاصطناعي

في خطوة جديدة تهدف إلى وضع معايير أخلاقية صارمة لمخرجات الذكاء الاصطناعي، أعلن فريق أنثروبيك عن إطلاق آلية تسمى "التصنيفات الدستورية" وتُعد بمثابة دستور رقمي يوجه سلوك النماذج اللغوية يأتي هذا الإعلان في ظل تزايد المخاوف حول دقة المحتوى الرقمي الذي تنتجه هذه النماذج.

وفي البيان الذي نشرتهُ الشركة أكد الباحثون أن الآلية تعتمد على إطار معياري متكامل يُحدد قواعد ومبادئ يجب الالتزام بها أثناء توليد النصوص بحيث يتم التمييز بين المحتوى الآمن وتلك النصوص التي قد تحمل طابعاً مضللاً أو خطراً على المستخدمين؛ سوف يفرض النظام الجديد رقابة على المدخلات والمخرجات بمعنى مختصر النظام قادر على تقييم مخرجات النماذج بمستوى عالٍ من الدقة والموضوعية.

وأوضح المتحدث باسم الفريق أن الهدف من هذه التصنيفات ليس تقييد حرية التعبير أو إضعاف الإبداع بل هو توفير إطار يحمي المستخدمين من المعلومات المغلوطة والتأثيرات السلبية التي قد تنجم عن الاستخدام غير المسؤول للتكنولوجيا؛ وبحسب المصادر تُجرى حالياً اختبارات مكثفة للتأكد من فعالية هذه الآلية في مختلف السيناريوهات مع مراجعة مستمرة للنتائج لتحديث وتطوير المعايير وفقاً للتغيرات التي يشهدها مجال الذكاء الاصطناعي.

أنثروبيك تقدم حماية تمنع الاستخدام السيئ للذكاء الاصطناعي

إن الدافع وراء هذا التشديد هو الحاجة الماسة إلى وجود نظام يستطيع التعامل مع الطلبات التي تعد بمستوى عالي من الخطورة فمحاولات الاستفادة من تقنيات الذكاء الاصطناعي في اغراض غير قانونية كثيرة وقد تؤدي للتسبب بإيذاء الناس لبعضها فعلا سبيل المثال يمكن أن يطلب أحدهم معلومات بخصوص "تصنيع الأسلحة الكيميائية" وغيرها من الأمثلة الكثيرة.

لكن الغريب في الأمر أن شركة أنثروبيك لم تقم بإضافة التصنيفات الدستورية إلى نماذج Claude على حد قولها أنها ستعمد إلى تطبيقها مستقبلاً على نماذج أكثر قوة وتطورًا وتشكل خطورة عالية أكثر من الحالية؛ تستند الحماية الجديدة للذكاء الاصطناعي على قواعد تحدد المسموح والمحظور من المحتوى، مع الأخذ في الاعتبار أن هذه محددات قابلة للتعديل وفرض قواعد جديدة للتعامل مع مختلف مستويات الخطورة.

وعلى الرغم من أن الذكاء الاصطناعي يعد ثورة ذكية اليوم إلا أنه لا يزال الذكاء البشري يقوفه ذكاءً ويمكن التحايل عليه وعلى قواعدة مثل صياغة الطلب بأسلوب ملتوي وقد حصل ذلك في العديد المرات أختراق الذكاء الاصطناعي (Jailbreaking) أو الطلب من الذكاء الاصطناعي التصرف كما لو أنهُ في مكان صاحب الطلب، لذا قدمت شركة Anthropic للباحثين الأمنيين مكافآت تقدر بـ 15,000 دولار في برنامج مكافآت اكتشاف الثغرات Bug Bounty.

وحرفيًا النتائج الأولية للاختبارات تبشر بالخير حيث أن فارق النسب كان كبيراً وأظهر نظام الحماية الجديد فعاليته فقد قام نموذج Claude 3.5 Sonnet برفض 95% من محاولات الاختراق بينما نسبة الرفض كانت 14% فقط بدون تركيب التصنيفات الدستورية؛ مع ذلك لوحظ أن أستهلاك الموارد الحاسوبية للسرفرات زاد بنسبة 24% عند تشغيل طبقة الحماية الجديدة وهو ما يعني زيادة في التكاليف التشغيلية.

وفي ظل هذا التطور يبرز النقاش حول أهمية التوازن بين الابتكار والتوجيه الأخلاقي، خاصةً مع الانتشار الواسع للتطبيقات التي تعتمد على تقنيات الذكاء الاصطناعي في تقديم خدماتها. وتؤكد المصادر أن التصنيفات الدستورية تُعتبر خطوة إيجابية نحو تعزيز ثقة المستخدمين في التقنيات الحديثة، حيث تساعد على الحد من التحيزات وضمان تقديم محتوى يخدم المصلحة العامة دون المساس بحقوق الأفراد أو الإضرار بخصوصيتهم.

يعتبر هذا الابتكار الجديد بمثابة نقلة نوعية في كيفية تعامل النظم الذكية مع المحتوى إذ يقدم رؤية متكاملة تتجاوز مجرد الكشف عن الأخطاء إلى وضع إطار يضمن سلامة المعلومات المنتجة وتشير التوقعات إلى أن هذه الآلية ستساهم في رفع مستوى المصداقية والشفافية في قطاع الذكاء الاصطناعي.

يستمر فريق الباحثين في متابعة الاختبارات وتلقي النتائج سيتم إطلاق النسخة التجريبية من 3 فبراير 2025 إلى 10 فبراير 2025 وهي تتضمن نموذج ملاحظات حيث يمكنك الإبلاغ عن أي عمليات اختراق ناجحة وبالطبع بعد التحقق صحة عملية الأختراق سيتم الإعلان عنها.

إرسال تعليق (0)
أحدث أقدم