هل ChatGPT "منحاز جنسياً".. تجربة تفجر مفاجأة!

سلطت النتائج الأخيرة الضوء على تحيزات كبيرة في الذكاء الاصطناعي، وخاصة مع برنامج الذكاء الاصطناعي ChatGPT، مما أثار المخاوف بين قادة الأعمال وخبراء التكنولوجيا. حيث سلطت دراسة أجراها موقع التمويل الشخصي Finder الضوء على التحيز الجنسي والعنصري الصارخ في مهام إنشاء الصور المخصصة لـ ChatGPT.

في تجربة مثيرة للاهتمام، تم تكليف ChatGPT بإنشاء صور لأفراد في مناصب وظيفية رفيعة المستوى. وكانت النتائج مذهلة، حيث قام الذكاء الاصطناعي بإنشاء صور لرجال ٩٩ مرة من أصل ١٠٠ تجربة. على العكس من ذلك، عندما طُلب منك إنشاء صورة لدور السكرتير، صور البرنامج امرأة في تسع حالات من أصل عشر، ورجلاً مرة واحدة فقط. علاوة على ذلك، كشفت الدراسة عن تحيز عنصري، حيث اختار ChatGPT شخصاً أبيض في كل حالة دون تحديد أي عرق.

ولا يتوافق هذا التناقض الصارخ في التمثيل مع التركيبة السكانية الحقيقية للقيادة والملكية، حيث تمتلك النساء واحدة من كل ثلاث شركات على مستوى العالم. بالإضافة إلى ذلك، فإن ٤٢٪ من أعضاء مجالس الإدارة في الشركات المدرجة على مؤشر فاينانشيال تايمز ١٠٠ في المملكة المتحدة هم من النساء، وهو ما يتناقض مع الصورة المنحرفة التي يقدمها الذكاء الاصطناعي.

دعوة لاتخاذ اجراءات

انتقد قادة الأعمال نماذج الذكاء الاصطناعي لكونها "مليئة بالتحيز" وحثوا على تنفيذ تدابير صارمة لمنع الذكاء الاصطناعي من عكس التحيزات المجتمعية. إن الاعتماد على أنظمة تتبع المتقدمين الآلية، التي يستخدمها ما يقدر بنحو ٧٠٪ من الشركات لاستكشاف المواهب وتوظيفها، يثير مخاوف من أن التحيزات المشابهة لتلك التي أظهرها ChatGPT يمكن أن تلحق الضرر بالنساء والأقليات في سوق العمل.

ويلفت التقرير الانتباه ليس فقط إلى التحيزات المتأصلة في أنظمة الذكاء الاصطناعي، بل أيضاً إلى القضية الأوسع المتمثلة في إدامة التكنولوجيا للصور النمطية التي عفا عليها الزمن. هذا ليس حادثاً معزولاً؛ وقد واجهت شركة OpenAI، التي ابتكرت ChatGPT، انتقادات في السابق لأنها قدمت نتائج تعزز الصور النمطية القديمة.

تحدي الذكاء الاصطناعي مع التحيز

اختبرت الدراسة الأخيرة عشرة من أكثر مولدات الصور المجانية شيوعاً استناداً إلى منصة Dall-E الخاصة بشركة OpenAI، وتم تعديل كل منها بتعليمات وقواعد معرفية مميزة. على الرغم من هذه الاختلافات، كانت النتيجة متشابهة إلى حد كبير عبر أكثر من ١٠٠ اختبار، حيث أظهرت شخصية ذكر في جميع الحالات تقريباً وشخصية أنثوية مرة واحدة فقط عند تصوير شخص ما في القطاع المالي. وبالمثل، عندما طُلب من الذكاء الاصطناعي تصور سكرتيرة، اختار في الغالب صور النساء.

تعتبر نتائج هذه الدراسة بمثابة تذكير صارخ بالحاجة الملحة لمعالجة وتصحيح التحيزات داخل أنظمة الذكاء الاصطناعي. مع استمرار الذكاء الاصطناعي في لعب دور محوري في مختلف القطاعات، أصبح ضمان تقديم هذه التقنيات تمثيلاً عادلاً ودقيقاً للمجتمع أمراً بالغ الأهمية. أصبحت الدعوة إلى وضع حواجز حماية أكثر صرامة وبيانات تدريب أكثر شمولاً أعلى من أي وقت مضى، مما يسلط الضوء على ضرورة منع الذكاء الاصطناعي من إدامة وتضخيم التحيزات المجتمعية.

English summary
A study by Finder reveals ChatGPT's gender and racial bias, predominantly generating images of men for high-level roles and women for secretarial jobs. This bias contradicts real-world leadership demographics and highlights the need for inclusive AI development.
ذهب عيار ٢٤ / Gram
ذهب عيار ٢٢ / Gram
First Name
Last Name
Email Address
Age
Select Age
  • 18 to 24
  • 25 to 34
  • 35 to 44
  • 45 to 54
  • 55 to 64
  • 65 or over
Gender
Select Gender
  • Male
  • Female
  • Transgender
Location
Explore by Category
Get Instant News Updates
Enable All Notifications
Select to receive notifications from