مركز ICAIRE يستضيف خبراء دوليين لمناقشة مخاطر نماذج اللغة المهلوسة في الذكاء الاصطناعي
نظّم المركز الدولي لبحوث وأخلاقيات الذكاء الاصطناعي (ICAIRE)، بتوجيه من اليونسكو، اجتماعًا عالميًا في الرياض مؤخرًا. ركّز الاجتماع على "إدارة المخاطر في نماذج اللغة المهلوسة". اجتمع خبراء من دول مختلفة لمناقشة المخاطر التقنية المرتبطة بـ"الهلوسة" في نماذج اللغة الكبيرة (LLMs). صُممت هذه النماذج لمعالجة اللغة البشرية وتوليدها.
تشير الهلوسة في نماذج اللغة إلى محتوى يبدو حقيقيًا ولكنه يفتقر إلى أساس واقعي. تؤثر هذه المشكلة على اللغات والصور ومقاطع الفيديو. استكشف الخبراء طرقًا مختلفة لتصنيف هذه الهلوسة، خاصةً عندما تتعارض النتائج مع المصادر أو يتعذر التحقق منها. كما درسوا الأساليب الحديثة للتنبؤ بالهلوسة قبل حدوثها، واستراتيجيات للحد من تأثيرها على موثوقية النتائج.

قدّم الدكتور ليون شلون، مؤسس مختبرات حسنة وخبير موثوقية الذكاء الاصطناعي، عرضًا تقديميًا حول قياس موثوقية النماذج. ناقش التقنيات المستخدمة للتخفيف من الهلوسة في الأنظمة التوليدية. كما عرض الدكتور شلون دراسات حالة واقعية توضح كيف يمكن لآليات RAG والمراقبة المستمرة للنماذج أن تُحسّن جودة المخرجات.
تطرق الخبراء إلى مواضيع متقدمة، مثل قياس الموثوقية قبل التحسين، وتقدير المخاطر قبل وقوعها دون الحاجة إلى تدريب إضافي، وحماية الأنظمة العملية باستخدام آليات الاسترداد المعزز بالموارد (RAG). وقدّموا دراسات حالة وخطط تنفيذية تهدف إلى تعزيز ممارسات الأمن في النماذج التوليدية.
يندرج هذا الاجتماع في إطار جهود معهد ICAIRE للنهوض بالبحوث والممارسات المتعلقة بأخلاقيات الذكاء الاصطناعي. ويهدف إلى وضع سياسات تضمن الاستخدام الآمن والمسؤول للتقنيات الحديثة. وتساهم هذه المبادرات في دعم أهداف الأمم المتحدة للتنمية المستدامة 2030.
سلّط الخبراء الضوء على عدة نقاط رئيسية خلال الاجتماع. وأكدوا على أهمية التنبؤ بالهلوسات قبل حدوثها، وتطبيق استراتيجيات للتخفيف من آثارها على موثوقية النظام. ومن خلال معالجة هذه القضايا، يهدفون إلى تحسين الجودة العامة لمخرجات نماذج اللغة الكبيرة.
لمزيد من المعلومات حول ICAIRE ومبادراتها، يمكنك زيارة صفحتهم الرسمية: ICAIRE Official Page .
With inputs from SPA