آخر الأخبار
الرئيسية » العلوم و التكنولوجيا » دراسة تنبه من افتقار نماذج الذكاء الاصطناعي إلى “الشفافية

دراسة تنبه من افتقار نماذج الذكاء الاصطناعي إلى “الشفافية

تفتقر نماذج الذكاء الاصطناعي التي تكاثرت منذ إطلاق “تشات جي بي تي” إلى الشفافية في تصميمها، ما يشكل خطراً على التطبيقات التي ترتكز إليها تقنياً، بحسب دراسة أجرتها جامعة ستانفورد ونُشِرَت نتائجها الأربعاء.

وبيّن مؤشر جديد وضعه وأجرى حسابات على أساسه باحثون في هذه الجامعة الواقعة في ولاية كاليفورنيا الأميركية، أن الأكثر شفافية بين النماذج العشرة التي أُخضِعَت للتقويم هو Llama 2 (“لاما 2”)، وهو نظام ذكاء اصطناعي أطلقته مجموعة “ميتا” في تموز/يوليو الفائت ويمكن إعادة استخدامه

لكنّ هذا النموذج لا يوفّر في الواقع إلا 54 في المئة من الشفافية المطلوبة، وهي نسبة غير كافية مقارنة بما يجب أن يحققه لكي يكون شفافاً، وفقاً لمعدّي الدراسة.

أما “تشات جي بي تي-4″، وهو المنتَج الرئيسي لشركة “أوبن إيه آي” التي تنتج روبوت “”تشات جي بي تي” الشهير والممَوَّلَة من “مايكروسوفت”، فلا تتعدى درجة شفافيته 48 في المئة.

وحصلت على مراتب أدنى نماذج أخرى تلقى رواجاً، بينها “بالم-2” من “غوغل” و”كلود 2″ من “انثروبيك” (الممولة من “أمازون”).

وأوضح مدير الأبحاث في جامعة ستانفورد ريشي بوماساني في بيان إن درجة الشفافية المطلوب توافرها في ما يسمى “نماذج التأسيس” يجب أن تراوح بين 80 في المئة و100 في المئة”.

وأوضح معدّو الدراسة أن الافتقار إلى الشفافية “يصعّب على الشركات معرفة ما إذا كان بإمكانها بناء تطبيقات بأمان تقوم على هذه النماذج، وعلى الأكاديميين الاعتماد على هذه النماذج في أبحاثهم”.

ولاحظت الدراسة أن معظم الشركات لا تفصح عن مدى المحتوى المحميّ بحقوق المؤلف والمستخدم لتدريب نموذجها. كذلك لا تكشف الشركات عن استخدام العمالة البشرية لتصحيح بيانات التدريب، الأمر الذي قد يكون مشكلة كبيرة”.

واسف بوماساني لكون “أي شركة لا تقدّم معلومات عن عدد المستخدمين الذين يعتمدون على نماذجها، ولا إحصاءات عن البلدان أو الأسواق التي تستخدمها”.

وشرح معدّو الدراسة أن صنّاع السياسات والعاملين في الهيئات الناظمة يستطيعون استخدام مؤشر الشفافية هذا في المستقبل. وأعلن الاتحاد الأوروبي والولايات المتحدة والصين والمملكة المتحدة وكندا عن رغبتهم في ظهور ذكاء اصطناعي أكثر شفافية.

ورأى الرئيس الأميركي جو بايدن في تموز/يوليو الفائت مخاطباً قادة الشركات العاملة في هذا القطاع أن “الذكاء الاصطناعي يمثل وعداً كبيراً وضخماً بفرص مذهلة، ولكنه يمثل أيضاً مخاطر على مجتمعنا واقتصادنا وأمننا القومي”.

وكان هذا الموضوع على رأس أولويات قمة مجموعة السبع في اليابان في شهر ايار/مايو، ومن المقرر أن تستضيف بريطانيا قمة دولية حول الذكاء الاصطناعي في تشرين الثاني/نوفمبر المقبل.

 

 

سيرياهوم نيوز 2_راي اليوم

x

‎قد يُعجبك أيضاً

مخاطر جمة يخفيها الذكاء الاصطناعي منها هجمات بيولوجية ونووية

لا شك في أن للذكاء الاصطناعي الذي بدأ منذ أكثر من عامين بالانتشار بشكل أوسع، حسناته، إلّا أنه يحمل مخاطر جمة على ما يبدو. فقد ...