مركز ICAIRE يستضيف خبراء دوليين لمناقشة مخاطر نماذج اللغة المهلوسة في الذكاء الاصطناعي

نظّم المركز الدولي لبحوث وأخلاقيات الذكاء الاصطناعي (ICAIRE)، بتوجيه من اليونسكو، اجتماعًا عالميًا في الرياض مؤخرًا. ركّز الاجتماع على "إدارة المخاطر في نماذج اللغة المهلوسة". اجتمع خبراء من دول مختلفة لمناقشة المخاطر التقنية المرتبطة بـ"الهلوسة" في نماذج اللغة الكبيرة (LLMs). صُممت هذه النماذج لمعالجة اللغة البشرية وتوليدها.

تشير الهلوسة في نماذج اللغة إلى محتوى يبدو حقيقيًا ولكنه يفتقر إلى أساس واقعي. تؤثر هذه المشكلة على اللغات والصور ومقاطع الفيديو. استكشف الخبراء طرقًا مختلفة لتصنيف هذه الهلوسة، خاصةً عندما تتعارض النتائج مع المصادر أو يتعذر التحقق منها. كما درسوا الأساليب الحديثة للتنبؤ بالهلوسة قبل حدوثها، واستراتيجيات للحد من تأثيرها على موثوقية النتائج.

ICAIRE Discusses Risks of Language Models

قدّم الدكتور ليون شلون، مؤسس مختبرات حسنة وخبير موثوقية الذكاء الاصطناعي، عرضًا تقديميًا حول قياس موثوقية النماذج. ناقش التقنيات المستخدمة للتخفيف من الهلوسة في الأنظمة التوليدية. كما عرض الدكتور شلون دراسات حالة واقعية توضح كيف يمكن لآليات RAG والمراقبة المستمرة للنماذج أن تُحسّن جودة المخرجات.

تطرق الخبراء إلى مواضيع متقدمة، مثل قياس الموثوقية قبل التحسين، وتقدير المخاطر قبل وقوعها دون الحاجة إلى تدريب إضافي، وحماية الأنظمة العملية باستخدام آليات الاسترداد المعزز بالموارد (RAG). وقدّموا دراسات حالة وخطط تنفيذية تهدف إلى تعزيز ممارسات الأمن في النماذج التوليدية.

يندرج هذا الاجتماع في إطار جهود معهد ICAIRE للنهوض بالبحوث والممارسات المتعلقة بأخلاقيات الذكاء الاصطناعي. ويهدف إلى وضع سياسات تضمن الاستخدام الآمن والمسؤول للتقنيات الحديثة. وتساهم هذه المبادرات في دعم أهداف الأمم المتحدة للتنمية المستدامة 2030.

سلّط ​​الخبراء الضوء على عدة نقاط رئيسية خلال الاجتماع. وأكدوا على أهمية التنبؤ بالهلوسات قبل حدوثها، وتطبيق استراتيجيات للتخفيف من آثارها على موثوقية النظام. ومن خلال معالجة هذه القضايا، يهدفون إلى تحسين الجودة العامة لمخرجات نماذج اللغة الكبيرة.

لمزيد من المعلومات حول ICAIRE ومبادراتها، يمكنك زيارة صفحتهم الرسمية: ICAIRE Official Page .

With inputs from SPA

English summary
The ICAIRE Centre convened international experts to discuss the risks associated with hallucinogenic language models in AI. The meeting focused on reliability assessment and strategies for mitigating hallucinations in generative systems.
ذهب عيار ٢٤ / Gram
ذهب عيار ٢٢ / Gram
First Name
Last Name
Email Address
Age
Select Age
  • 18 to 24
  • 25 to 34
  • 35 to 44
  • 45 to 54
  • 55 to 64
  • 65 or over
Gender
Select Gender
  • Male
  • Female
  • Transgender
Location
Explore by Category
Get Instant News Updates
Enable All Notifications
Select to receive notifications from