الرئيسية » العلوم و التكنولوجيا » الذكاء الاصطناعي «مَصنَع» الفبركـات

الذكاء الاصطناعي «مَصنَع» الفبركـات

علي عواد

 

 

صحيح أنّ الشائعات موجودة منذ قرون، حتى إنّ تاريخها يعود إلى اختراع المطبعة، إلا أن نطاق وسرعة انتشارها كانا محدودين. لكن مع ثورة تكنولوجيا الذكاء الاصطناعي، تعاظمت تلك المشكلة بفعل مجموعة كاملة من الأدوات الرقمية التي سهّلت صناعة الشائعات ونشرها بالصوت والفيديو، ليزداد بذلك لون عصر ما بعد الحقيقة قتامةً

 

يستطيع الذكاء الاصطناعي (AI) اليوم إنشاء مقاطع صوتية وفيديو مزيفة واقعية بشكل مذهل. على سبيل المثال، يمكن لـ VALL-E من شركة «مايكروسوفت» استنساخ صوت شخص ما بعد سماعه لثلاث ثوانٍ فقط من صوته. تتمتع أدوات شركة OpenAI بقدرات مماثلة لاستنساخ الصوت، إضافة إلى أدوات لإنشاء مقاطع فيديو اصطناعية بناءً على الأوصاف النصية، ناهيك بعشرات أدوات الـAI التي صارت تنبت كل يوم بفعل الزخم المصاحب لهذا المجال. نظرياً، يمكن لمستخدم ملمّ بأدوات الذكاء الاصطناعي، أن يستهدف شخصاً ما عبر صنع فيديو مزيّف له، وجعله يقول أموراً كاذبة أو يضعه في مشاهد غير أخلاقية. هذا كله ممكن اليوم بسهولة، في حين كان الأمر يحتاج، قبل سنوات، إلى ثروة صغيرة وخبرات أشخاص في مجال السينما والمؤثرات الخاصة. ولزيادة الطين بلة، يكفي نشر الخبر المزيف على إحدى منصات التواصل كي ينتشر كالنار في الهشيم قبل أن ترصده الخوارزميات وتوقفه. علماً أن هذه القدرات الجديدة الظلامية لأدوات الذكاء الاصطناعي، كانت تنحصر سابقاً في إطار الشخصيات المعروفة والمشهورة، بمعنى أن الويب يعجّ بالصور والفيديوات عنها، ما يسهّل الأمر على أدوات الـAI لخلق فيديو جديد مزيف. ولكن اليوم صار في الإمكان فبركة أي شيء وعن أي شخص.

 

رسم عبر أدوات الذكاء الاصطناعي (بينغ إيمج كريياتور)

تركيا – تكلفة زراعة الأسنان بالفم الكامل قد تفاجئك تمامًا

زراعة الاسنان في تركيا

 

أشار تقرير نشرته مجلة «إيكونوميست» في الأول من أيار (مايو) الحالي، إلى مخاطر هائلة يمكن أن تحملها أدوات الذكاء الاصطناعي خلال فترات الانتخابات، علماً أنه في العام الحالي وحده، سيشارك أكثر من أربعة مليارات إنسان في انتخابات خاصة بهم حول العالم. وبالفعل، شهدت تايوان أول استخدام لفيديو مفبرك عبر الذكاء الاصطناعي خلال الحملات الانتخابية قبل التصويت في كانون الأول (يناير) الماضي. ورغم أن هذا الجهد كان له تأثير ضئيل على سير العملية الانتخابية، إلا أنه أظهر كيف يمكن للذكاء الاصطناعي تعزيز حملات المعلومات المضلّلة مستقبلاً. إضافة إلى ذلك، طرح التقرير أمثلة عدة عن تكتيكات تستفيد من الذكاء الاصطناعي من أجل الكذب، ولا سيما موقع «دي سي ويكلي» الأميركي الذي كان له دور أساسي في تعزيز حملة تضليل ضد أوكرانيا. ولإيضاح ما حصل وفهم كيفية تصرّف اللاعبين السيئين في مجال نشر الأكاذيب عبر الـAI، تتبّع باحثون في جامعة «كليمسون» حملة التضليل ضد أوكرانيا، التي بدأت بمقطع فيديو نُشر على يوتيوب، ليمر بعدها بعدد من المواقع الإخبارية الأفريقية وموقع إخباري آخر أنشئ عبر الـAI، لينشر بعدها الخبر ويتردد بنسبة عشرين ألف مرة على منصة X.

يُعدّ اكتشاف هذه المعلومات المضلّلة المدعومة بالذكاء الاصطناعي أمراً بالغ الصعوبة. وتعتمد الجهود الحالية إلى حدّ كبير على مراقبة النصوص والحسابات المشبوهة والأنماط الأخرى.

شهدت تايوان أول استخدام لفيديو مفبرك بالـ AI خلال الحملات الانتخابية

لكن وفقاً لـ «إيكونوميست»، تكمن المشكلة في أنّ القائمين على صناعة الأخبار المضلّلة، أصبحوا أكثر ذكاءً، إذ يشوّشون المسارات التي مرت عبرها الكذبة عبر إحلالها في منصات متعددة، ويدفعون مقابل حسابات على منصات تواصل تبدو أصلية لخداع أنظمة الذكاء الاصطناعي الدفاعية. لذلك، تعمل وكالة مشاريع الأبحاث الدفاعية المتقدمة «داربا» وغيرها، على تطوير أدوات تصنيف دقيقة لاكتشاف النصوص والصور والفيديو والأصوات الاصطناعية المفبركة باستخدام تقنيات تحليلية متعددة جنباً إلى جنب. مع ذلك، يحذّر خبراء التكنولوجيا مثل الكاتبة ومديرة الأبحاث في مرصد جامعة «ستانفورد» للإنترنت (SIO)، رينيه ديريستا، من أنّ الكشف «سيتخلّف دائماً عن القدرات الإبداعية الهجومية إلى حد ما». وترى ديريستا أن «وسائل التواصل الاجتماعي خفّضت كلفة توزيع الأكاذيب إلى الصفر، بينما خفّض الذكاء الاصطناعي التوليدي (مثل «تشات جي بي تي») كلفة الإنتاج إلى الصفر»، في حين تجعل النماذج اللغوية الكبيرة مثل GPT-4 إنتاج المقالات والمشاركات والرسائل الإخبارية المزيفة أمراً سهلاً جداً ومنخفض الكلفة.

 

سيرياهوم نيوز1-الاخبار اللبنانية

x

‎قد يُعجبك أيضاً

“5 منتجات تقنية ستشهد زيادة في الأسعار بسبب ضرائب ترامب

بعد أن انتهت الانتخابات الرئاسية الأميركية بفوز الرئيس الأسبق دونالد ترامب وعودته إلى البيت الأبيض، أثار فوزه قلقاً بين العديد من الخبراء الاقتصاديين بسبب خطته ...