آخر الأخبار
الرئيسية » العلوم و التكنولوجيا » مخاطر الذكاء الاصطناعي.. “الهجمات السيبرانية”.. المعضلات الأخلاقية.. تقلل من فرص العمل

مخاطر الذكاء الاصطناعي.. “الهجمات السيبرانية”.. المعضلات الأخلاقية.. تقلل من فرص العمل

كل الأخطار التي سنتكلم عنها هي أشياء معلنة، مع أنه يوجد أشياء كثيرة غير معلن عنها.. بدليل الرسالة وقعها إيلون ماسك وآلاف آخرين من قادة الذكاء الاصطناعي في العالم بتاريخ 22-3-2023 إلى وقف تطوير عمل الذكاء الاصطناعي لمدة ستة أشهر لتطوير أنظمة “أقوى” من تلك الخاصة بـ GPT-4، وزعمت الرسالة أن أنظمة الذكاء الاصطناعي تشكل مخاطر جسيمة على البشرية، وأنه يجب على مختبرات الذكاء الاصطناعي والخبراء المستقلين استخدام هذا التوقف المؤقت لتطوير وتنفيذ مجموعة من بروتوكولات السلامة المشتركة لتصميم وتطوير ذكاء اصطناعي متقدم يمكن التأكد من دقته والإشراف عليه.
– ..التزييف العميق Deep Fack
هي تقنية حديثة تعتمد على الذكاء الاصطناعي، تسمح بتعديل مقاطع الفيديو والصور بشكل متطور للغاية، لدرجة يصعب معها تمييز المحتوى المزيف عن الحقيقي.. ببساطة، يمكن لهذه التقنية أن تضع وجه شخص ما على جسد شخص آخر في فيديو، أو أن تجعل شخصاً يقول أو يفعل شيئاً لم يقم به أبداً.
بعض الأمثلة حول انتهاك الخصوصية بتقنيات الذكاء الاصطناعي:
الاستنساخ الرقمي للأشخاص ( Cloning)
ظهر مفهوم إنشاء نسخ رقمية للأشخاص باستخدام تقنيات الذكاء الاصطناعي. هذه النسخ يمكنها محاكاة الصوت والصورة والسلوكيات الخاصة بالشخص الأصلي.
قد يقوم أحدهم بإساءة استخدام تقنية الذكاء الاصطناعي بتصميم فيديوهات مزيفة بطريقة الاستنساخ بالذكاء الاصطناعي، وتضعنا مثل هذه الحوادث أمام تحدٍ كبير نشر الوعي بإساءة استخدام مثل هذه التقنيات تجاه المجتمع، ويجب إيقاف عمل نسخ الأشخاص رقمياً وقد تم إصدار قانون في الصين يمنع النسخ الرقمي للأشخاص تحت طائلة المساءلة القانونية لمن ينسخ رقمياً شخصاً دون موافقته.
التأثير على الرأي العام
إمكانية إساءة استخدام الذكاء في نشر معلومات مضللة أو التلاعب بالرأي العام، وقد تؤدي خوارزميات الذكاء الاصطناعي إلى اتخاذ قرارات متحيزة أو تمييزية، عندما ظهرت وسائل التواصل الاجتماعي بتنا نسمع أخبار من مصادر غير موثوقة، والناس يختلفون في طريقة تعاملهم مع هذه الأخبار، هناك من يصدق كل ما يسمع، وهناك من يكذب كل ما يسمع، وهناك من يحاول أن يتأكد عن طريق الذهاب إلى الأماكن أو القنوات الرسمية وخوارزميات الذكاء الاصطناعي تجعل وسائل التواصل الاجتماعي تحضر إليك المواضيع أو الأخبار التي تظن أنك مهتم بها، فمثلاً إذا كان شخص مهتم بالرياضة فسوف يرى الكثير من الأخبار الرياضية.
كيف يمكننا حماية أنفسنا من تقنية deep fake؟
قبل تصديق أي فيديو أو صورة، تأكد من مصدرها وتحقق من صحة المعلومات، ويجب أن نتعلم كيفية التعرف على العلامات التحذيرية التي تدل على أن الفيديو أو الصورة قد تم التلاعب به، ويجب دعم تطوير التكنولوجيا التي تستطيع كشف المحتوى المزيف.
في البداية شاهد المقطع بتركيز ولا تتسرع في نشره، وأطرح على نفسك سؤالا مفاده: هل هذا المقطع حقيقي؟ ألا يمكن أن يكون مفبركاً؟ إذ كنت في حال شك لا تنشره أو ترسله لأي شخص.
وفي حالة وجود شك، يتعين عليك القيام بالبحث عن نفس القصة أو المقطع من مصادر مختلفة لكنها جديرة بالثقة على شبكة الإنترنت، إذ سيساعدالعثور على قصة مماثلة على الإمساك بطرف الخيط للوصول إلى القصة الحقيقية.
ويمثل رصد واكتشاف بعض الآثار عن وجود تلاعب أكبر تحدٍ، لكن هناك بعض الجوانب قد تساعد في الأمر مثل وجود لقطات غير متسقة أو تغير في نبرة الصوت أو جودته وغيرها مهما كانت صغيرة، فقد تكون مفيدة، وعليك أن تثق في حواسك البصرية والسمعية، وسل نفسك دائماً: هل يبدو الأمر منطقياً؟
ويجب أن تتذكر أن الأمر يتطلب فقط الكثير من التركيز، وربما قد يتطلب الأمر طلب المساعدة من شخص آخر ليساعدك في تحديد أماكن التلاعب التي قد تكون أشياء بسيطة مثل الأنف أو الأذن أو الأسنان ودرجة بياضها أو حتى تسريحة الشعر وهل يبدو الأمر متطابقاً.
كذلك قم بتكبير حركات الفم والشفاه وقارنها بالنسخة الأصلية لاكتشاف تزامن تحريك الشفاه، وهل يبدو الأمر منطقياً.
وقد يصعب على المرء التحقق من المقاطع المصورة أو الصوتية التي تم التلاعب بها، لكن يمكن أن يتدرب المرء على معرفة كيف يمكنه اكتشاف مواضع “التزييف العميق”.
وقبل كل شيء، يتعين التوقف عن نشر أو مشاركة أي شيء لم يتم التحقق من مصداقيته وصحته.
-الذكاء الاصطناعي يهدد الوظائف..
من المخاطر أن الذكاء الاصطناعي سيفقد الكثير من الأشخاص وظائفهم، ما قد يحدث أن القوى العاملة التي تعرف كيفية استخدام الذكاء الاصطناعي ستحل محل القوى العاملة التي لا تعرف كيفية استخدام الذكاء الاصطناعي، مثلاً لتمكين الممرضة أو عامل الرعاية الصحية بالأدوات اللازمة للتعامل مع الذكاء الاصطناعي والمهارات عبر التدريب، فمن المرجح أن يحصلا على وظيفة أفضل أو أن يكونا أكثر تمكناً من ذلك الذي لا يعرف كيفية استخدام الأدوات اللازمة،و حسب استطلاع أجرته ماكينزي عن الذكاء الاصطناعي حيث تتبنى شركات تكنولوجيا الذكاء الاصطناعي التوليدي في أعمالها وسيكون قادرا حتى 2030 على اقتناص وظائف في عدة مجالات هي المساعدة الإدارية وخدمة العملاء والمبيعات والإنتاج والتصنيع، وقد ستكون أول هذه الوظائف هي خدمة العملاء عن طريق الهاتف وإن الذكاء الاصطناعي سيكون قادراً على أن يجيب على أسئلة العملاء وعلى حل مشكلاتهم وغير ذلك.
في سنغافورة أصدروا قانوناً ينص على أن كل مواطن في البلاد تجاوز أربعين عاماً ويريد العودة إلى الجامعة لدراسة الذكاء الاصطناعي يحصل على دعم بنسبة 50 % أو بعض الدعم من الحكومة، لأنهم يؤمنون بالمزايا الأكاديمية للذكاء الاصطناعي في السياق الأكاديمي في الجامعة، فإن الجيل القادم من مواهب الذكاء الاصطناعي لن يقتصر على طلاب المدارس الثانوية وطلاب الجامعات الذين سيدخلون سوق العمل، وإن كل شخص يرغب في المشاركة في اقتصاد الذكاء الاصطناعي يعتبر من الجيل القادم من مواهب الذكاء الاصطناعي بغض النظر عن عمره.
– الهجمات السيبرانية..
من المتوقع استخدام الذكاء الاصطناعي على برمجة فيروسات وهجمات سيبرانية تكون أكثر دهاء، وأكثر دقة، وأكثر عنفاً، وإن الهجمات السيبرانية هي من وسائل الحرب من حيث الحرب الإلكترونية، وأصعب ما في الحرب الإلكترونية أن دولة تتعرض لهجوم، ولا تعرف من يهاجمها، والذكاء الاصطناعي قد يكون أحد الوسائل التي تستخدم في بناء هجمات سيبرانية تكون أكثر شدة وأكثر ضراوة ويكون كشفها أو إيقافها أصعب بكثير.
– ختاماً..
كيف يمكننا ضمان أن الذكاء الاصطناعي يخدم الإنسانية بدلاً من تهديدها؟ كيف يمكننا تطوير أنظمة ذكاء اصطناعي قادرة على التعلم والتطور من دون أن تفقد السيطرة عليها؟ هذه أسئلة معقدة تتطلب منا التفكير بعمق والتعاون من أجل إيجاد حلول مبتكرة.. مستقبل الذكاء الاصطناعي يعتمد على القرارات التي نتخذها اليوم.

 

 

 

 

موقع اخبار سورية الوطن 2_الثورة

x

‎قد يُعجبك أيضاً

تجميد الجثث أملا في إعادة إحيائها مستقبلا لم يعد يقتصر على الخيال العلمي

قررت بيكا زيغلر البالغة 24 عاما، تجميد جثتها في برّاد بعد وفاتها عن طريق مختبر في برلين، على أمل محدود بإعادة إحيائها مستقبلا. وقّعت هذه ...