معهد الابتكار التكنولوجي في دولة الإمارات العربية المتحدة يُحدث ثورة في نماذج الذكاء الاصطناعي اللغوية
قدم معهد الابتكار التكنولوجي في أبو ظبي نموذج لغة كبير جديد، Falcon Mamba (7B)، كجزء من سلسلة Falcon. وفقاً لتصنيفات Hugging Face، يعد هذا النموذج نموذج لغة SSLM مفتوح المصدر الأفضل أداءً على مستوى العالم. وعلى عكس نماذج Falcon السابقة المستندة إلى المحولات، فإن فالكون مامبا (7 بي) هو أول نموذج SSLM في السلسلة.
وقال سعادة فيصل البناي، الأمين العام لمجلس أبحاث التكنولوجيا المتقدمة ومستشار رئيس الدولة للأبحاث الاستراتيجية والتكنولوجيا المتقدمة: "يمثل صاروخ فالكون مامبا (7 بي) النموذج الرابع للذكاء الاصطناعي الذي يطلقه معهد الابتكار التكنولوجي على التوالي، ما يعزز مكانة أبوظبي كمركز عالمي لأبحاث وتطوير الذكاء الاصطناعي. ويسلط هذا الإنجاز الضوء على التزام دولة الإمارات الثابت بالابتكار".

أداء فالكون مامبا (٧ بي)
بالمقارنة مع النماذج المعتمدة على المحولات، يتفوق Falcon Mamba 7B على Llama 3.1 8B وLlama 3.1 8B من Meta وMistral 7B وفقاً لمعايير Hugging Face. كما يتفوق على جميع النماذج الأخرى مفتوحة المصدر في معايير الإرث ويتفوق على معايير Hugging Face الجديدة.
تتميز نماذج SSLM بقدرتها على فهم السياقات المعقدة التي تتطور بمرور الوقت، مثل النصوص الطويلة مثل الكتب. ولا تحتاج أنظمة تخزين البيانات الخاصة بها إلى ذاكرة إضافية لحجم كبير من المعلومات. وعلى النقيض من ذلك، تتميز النماذج القائمة على المحولات بالكفاءة في تذكر واستخدام المعلومات التي تمت معالجتها مسبقاً ولكنها تتطلب قوة حسابية كبيرة بسبب مقارنات الكلمات.
تطبيقات نماذج SSLM
تقدم نماذج لغة SSLM حلولاً عملية في مجالات مختلفة مثل مهام التقدير والتنبؤ والتحكم. كما أنها تتفوق في مهام معالجة اللغة الطبيعية مثل الترجمة الآلية وتلخيص النصوص ومعالجة الصوت والصورة.
و يجسد نموذج فالكون مامبا (7 بي) الجديد الأبحاث الرائدة التي يقدمها معهد الابتكار التكنولوجي والأدوات المتقدمة التي يقدمها للمجتمع بتنسيق مفتوح المصدر. ويعزز هذا الإطلاق مكانة أبوظبي كدولة رائدة في مجال البحث والتطوير في مجال الذكاء الاصطناعي.
يواصل المعهد توسيع حدوده من خلال جهوده البحثية المبتكرة. ويشكل إطلاق فالكون مامبا (7 بي) خطوة أخرى نحو توفير حلول تكنولوجية متطورة على مستوى العالم.