آخر الأخبار
الرئيسية » كتاب وآراء » الذكاء الاصطناعي والإنسان

الذكاء الاصطناعي والإنسان

 

رأي خريستو المر

 

بالإضافة إلى الاحتباس الحراري وآثاره المدمّرة، فإنّ ميزة عصرنا الأساس سيكون انتشار الذكاء الاصطناعي عبر تفاصيل الحياة الإنسانيّة: تعليم، صحّة، قانون، رياضة، تسلية، عرض أزياء، إلخ.

 

يتكوّن علم الذكاء الاصطناعي من عدّة ميادين تقوم على تعليم الآلة محاكاة الإنسان. ولا بدّ من التأكيد على أنّ كلمة الذكاء في عبارة «الذكاء الاصطناعي» هي تعبير تسويقيّ فضفاض، فهناك إجماع على أنّ الذكاء الإنسانيّ يتجاوز بمقدراته بما لا يُقاس ما يسمّى بالذكاء الاصطناعي، أو ذكاء الآلة. تتميّز الآلة-الكمبيوتر بقدرتها على حفظ بيانات (داتا) واسعة جدّاً ليس بقدرتنا حفظها، واتّباع خطوات (نسمّيها خوارزميّات نسبة إلى العالم الشهير الخوارزمي) نلقّمها لها لكي تُمكّنها من البحث في بحر البيانات الواسعة لإيجاد معلومة ما بشكل أسرع منّا، أو إيجاد أنماط (pattern) داخل البيانات تربط عناصرها بعضها ببعض. فمثلاً، فلنفترض أنّ لدينا بيانات صحّية لعشرات آلاف الأشخاص الأحياء والمتوفّين وأنّنا نظرنا إلى عدد الخطوات التي يمشيها كلّ واحد منهم في اليوم وإلى عمره، فوجدنا أنّ من يمشي أربعة آلاف خطوة في اليوم يتوفّى وهو في الأربعين من عمره، ومن يمشي خمسة آلاف خطوة في اليوم يُتوفّى في الخمسين من العمر، ومن يمشي ستة آلاف خطوة يُتوفّى في الستّين من العمر. عندها يمكننا أن نلاحظ بأنّ نموذج (model) يقول بأنّ العمر يمكن تقديره بقسمة عدد الخطوات بمئة. عندها، إن رأينا شخصاً لا نعرفه أبداً، فيمكننا أن نسأله عن عدد الخطوات التي يمشيها في اليوم ونقدّر عمره، ونستطيع كذلك أن نعرف احتمال صحّة هذا التقدير.

ad

 

هناك نوع آخر من الذكاء الاصطناعي يقوم على التعلّم من الأخطاء، بحيث يمكن تعليم برنامج كمبيوتر لعبة -شطرنج مثلاً- من خلال حفظ وفهم عدد كبير من بيانات لأشخاص لعبوا اللعبة، ثمّ يقوم الكمبيوتر باللعب مع إنسان آخر، وحين يُخطئ في اللعب ويخسر يتعلّم شيئاً جديداً ويصبح أفضل في اللعبة. «غوغل» مثلاً، صنعت برنامج ذكاء اصطناعيّ اسمه «ألفا غو» ليلعب لعبة اسمها «غو»، وقد تمكّنت «ألفا غو» أن تغلب في النهاية بطلاً أسطوريّاً في اللعبة. ثمّ صنعت «غوغل» برنامجاً جديداً اسمه «ألفا غو صفر» ولم تعلّمه قوانين لعبة «غو» إطلاقاً، ثمّ تركته يلعب اللعبة مع آخر حتّى تعلّم اللعبة بشكل كامل من أخطائه وخساراته، وتمكّن بعد التمرين من الانتصار في اللعبة بل والانتصار على برنامج «ألفا غو» الأصليّة!

كما أنّ هناك نوعاً ثالثاً من الذكاء الاصطناعي يوصَف بالتوليديّ، وهو نوع يقوم بحفظ كمّ واسع من المعلومات (نصوص، صور وموسيقى) ثمّ بعدها يمكن أن نسأله أسئلة مختلفة فيقوم بكتابة الأجوبة معتمداً على المعلومات المحفوظة، وهذه خطوة غير تقليديّة في الذكاء الاصطناعي. هذا ما يقوم به برنامج «شات جي بي تي» (ChatGPT) الشهير في مجال النصوص أو برنامج «DALL-E2» في مجال الصور. فقد تسأل برنامجاً مشابهاً أن يكتب لك قصيدة فيفعل ذلك، وأن يرسم لك صورة فيها كذا وكيت فيقوم بالرسم. أخيراً قدّم إنسان، على سبيل التجربة، صورة مرسومة بواسطة الذكاء الاصطناعي إلى مباراة رسم، دون أن يبلّغ عن ذلك، فربحت الصورة جائزة التحكيم؛ وابتكر فريق برنامجاً قائماً على الذكاء الاصطناعي وقدّموا له السمفونيّة العاشرة لبيتهوفن والتي لم ينهها، فقام البرنامج بإكمالها بنوتات موسيقيّة مصنوعة على نمط نوتات بيتهوفن. اليوم هناك برامج يمكن تلقينها صوراً لشخص فتصنع فيديو له وهو يقول أشياء لم يقلها في حياته، ويمكن الطلب من «شات جي بي تي» أن يختصر لك موضوعاً، أو يكتب لك برنامج كمبيوتر، أو يقدّم لك جواباً عن سؤال.

ad

 

لكن ما هي مشاكل الذكاء الاصطناعي؟ أوّلاً، أنّه يتعلّم من البيانات (داتا) الموجود فإن كان الموجود غير جيّد، أو لا يمثّل جميع الناس، تكون النتائج منحازة أو خاطئة تماماً. فمثلاً، هناك دعوى مرفوعة ضدّ شركة «أبل» لأنّ ساعتها التي تقيس مستوى الأوكسيجين في الدم تعطي قياسات خاطئة إن كان جلد الإنسان داكن اللون. وهناك برنامج ذكاء اصطناعي ابتكرته شركة «أمازون» لكي يختار من مجموع المتقدّمين للعمل في الإدارة الأفضل فكان لا يختار النساء أبداً، والسبب يعود إلى أنّ الصنّاع «الأذكياء» لتلك البرامج لقّنوها بيانات لا تحتوي صوراً لأناس ذوي جلد داكن بالنسبة إلى أوّل برنامج، أو تحتوي على عدد متناسب من بينات لمديرات نساء في الحالة الثانية (إذ كان عدد المديرين الرجال في «غوغل» أكبر بكثير من عدد النساء). المشكلة طبعاً أنّه في الحالتين لم يتّخذ المبتكرون لتلك البرامج الخطوات الضروريّة للبحث في إمكانيّة انحياز تلك البرامج، ثمّ اكتشاف ذاك الانحياز، ومعالجته، قبل الاستخدام. وماذا لو كان برنامج الذكاء الاصطناعي يُستخدم في مستشفى لتوقّع الإصابة بمرض وأخطأ في التقدير إن كان المريض ينتمي إلى مجموعة ما؟ مَن المسؤول عندها؟ الطبيب الذي استخدم البرنامج. المستشفى الذي اشتراه؟ الشركة التي أنتجته؟ الحكومة التي سمحت له بالتسويق؟ ما هو الموقف القانونيّ الصحيح؟

ad

 

التعامل مع هذا الابتكار ليس مثل سابقاته: شركة «غوغل» تصنع برنامجاً (بارت) يشبه «شات جي بي تي»، قامت بتلقينه معلومات نصّية ضخمة. فجأة اكتشف العاملون في «غوغل» أنّ البرنامج تعلّم بمبادرة من عنده دون إشارة من أحد، لغةَ أهل منطقة البنجاب في الهند. هذا مثير للقلق على الأقلّ. هناك آلاف الشخصيّات والباحثين في مجال الذكاء الاصطناعي أطلقوا رسالة منذ حوالي الثلاثة أشهر تطالب الشركات العملاقة بأن تتوقّف عن تطوير «شات جي بي تي» وأيّ برنامج يشبهه لستّة أشهر (لا نظنّها تكفي) حتّى نتمكّن من التفكير في أثر هكذا ابتكار على الحياة الإنسانيّة ووجودنا بأكمله، وكيفيّة التعامل معه.

في القرون الماضية، حلّت الآلة مكان الجهد العضلي، اليوم ابتكارات الذكاء الاصطناعي قد تودي بمهن طبّية وفنّية. هل نحن بحاجة إلى محو مهن من الوجود؟ إن كان نعم، أي منها؟ وماذا يفعل المجتمع بالمتضرّرين من حلول الذكاء الاصطناعي مكانهم في العمل؟ لو افترضنا أن الذكاء الاصطناعي يمكنه يوماً ما أن يحلّ مكان الإنسان في كلّ الأعمال، فهل نريد أن نترك الشركات تقوم بإحلال الآلة مكان الإنسان في كلّ الأعمال، فقط بهدف جني المزيد من الأرباح؟ وإن قبلنا بذلك، فما هو مصير الإنسان؟ وكيف ينظر الإنسان إلى نفسه دون عمل؟ المتحمّسون للذكاء الاصطناعي يبشّرون بمزيد من الحرّية والتحرّر، فهل مِن فعل تحريريّ للذكاء الاصطناعي أم نحن بالعكس أمام مفترق طرق للإنسانيّة مهيب يمكنه أن يودي بنا إلى تسلّط هائل إن تركناه بيد بضعة أفراد يتحكّمون ببضع شركات عملاقة؟ هناك بالطبع أسئلة ملحّة أخرى، لا بدّ لنا من طرحها بسبب شعورنا بالمسؤوليّة تجاه مصيرنا كبشر، بسبب مسؤوليّتنا النابعة من محبّتنا للبشر والخليقة كلّها.

 

سيرياهوم نيوز1-الاخبار اللبنانية

x

‎قد يُعجبك أيضاً

الموقفُ الأمريكي من العمليةِ على رفح..!

  كتب د. مختار يسعى كيا.نُ الاحتلالِ والولاياتُ المتحدةُ الأميركيةُ إلى تجزئةِ الملفاتِ فيما يخصُّ العدوانَ المتواصلَ على غ.زّ.ةَ، فالكيا.نُ لايريدُ إنهاءَ الحر.بِ من دونِ ...