تدرك شركة OpenAI مخاطر تطوير الذكاء الاصطناعي العام ولكنها تختار المضي قدمًا
في 9 يونيو 2017، واجهت شركة OpenAI، الشركة التي تقف وراء برنامج الدردشة Chatbot الشهير، تدقيقًا بسبب نهجها في تطوير الذكاء العام الاصطناعي (AGI). الذكاء الاصطناعي العام (AGI) هو شكل من أشكال الذكاء الاصطناعي قادر على فهم وتنفيذ مجموعة واسعة من المهام، ومحاكاة السلوك البشري، وإظهار قدرات التعلم والتفكير.
وأعرب الباحث دانييل كوكوتايلو، الذي ترك فريق الحوكمة في OpenAI مؤخرًا، عن مخاوفه بشأن المخاطر المرتبطة بالذكاء الاصطناعي العام. وفي مقابلة مع صحيفة نيويورك تايمز في أبريل الماضي، قدر كوكوتايلو أن هناك فرصة بنسبة 70% في أن يؤدي الذكاء الاصطناعي المتقدم إلى تدمير البشرية. وعلى الرغم من هذه المخاطر، تواصل OpenAI جهودها التنموية.

كشف كوكوتايلو أنه بعد انضمامه إلى OpenAI قبل عامين، تم تكليفه بالتنبؤ بالتقدم التكنولوجي. وخلص إلى أنه من الممكن تطوير الذكاء الاصطناعي العام بحلول عام 2027، مما يشكل مخاطر كبيرة على البشرية. ونصح سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بإعطاء الأولوية للسلامة وتخصيص المزيد من الموارد لمعالجة المخاطر المرتبطة بالذكاء الاصطناعي. وعلى الرغم من موافقة ألتمان، لم يتم إجراء أي تغييرات جوهرية.
كوكوتايلو هو من بين مجموعة من موظفي OpenAI السابقين الذين أصدروا رسالة مفتوحة تدعو إلى مزيد من الشفافية والحماية للمبلغين عن المخالفات في صناعة الذكاء الاصطناعي. تؤكد الرسالة على حاجة المطورين إلى تنفيذ تدابير أمان أكثر قوة.
ردًا على هذه الانتقادات، دافعت شركة OpenAI عن سجل السلامة الخاص بها. وذكرت الشركة أنها ملتزمة بتوفير أنظمة ذكاء اصطناعي فعالة وآمنة وتؤمن بنهجها العلمي لإدارة المخاطر.
With inputs from WAM