رضا صوايا
«علينا بناء مخبأ. لا يمكننا إطلاق الذكاء الاصطناعي العام من دون ذلك». هذه الجملة ليست مقتبسة من فيلم خيال علمي، بل تندرج ضمن الاقتراحات الجديّة التي تبحثها، أو على الأقل تراود أفكار أبرز العقول التي تقف وراء كبريات شركات الذكاء الاصطناعي.
مخبأ للعقول! لكن ما الذي يخيفها؟ وممَّ تريد الاختباء؟
الذكاء الاصطناعي العام، المعروف بـAGI (اختصاراً من Artificial General Intelligence)، يقترب بوتيرة أسرع من المتوقع. إنه «الوحش» المنفلت الذي صنعته أيدي العلماء، والذين قد لا يستطيعون لجمه أو ضبطه، وقد يغيّر مصير البشرية إلى الأبد.
يتمثل الجانب المظلم للذكاء الاصطناعي العام في الخطر الوجودي المعروف بـ «مشكلة التحكم»
الحديث عن «مخبأ يوم القيامة» ليس مجرّد شائعة. كشفت مراسلة الذكاء الاصطناعي في «إم آي تي تكنولوجي ريفيو»، كارين هاو، في كتابها الصادر حديثاً بعنوان «إمبراطورية الذكاء الاصطناعي: الأحلام والكوابيس في شركة أوبن آي أي بقيادة سام ألتمان»، أن أحد مؤسسي الشركة، وإحدى أبرز الشخصيات العلمية المنسوب إليها الفضل في تطوير ChatGPT، إيليا سوتسكيفر، الذي استقال أخيراً من «أوبن آي أي»، اقترح في عام 2023 بناء مخبأ مخصّص لكبار الباحثين قبل إطلاق الذكاء الاصطناعي العام.
يكشف هذا الاقتراح عن قلق عميق من الفوضى العالمية، والصراعات الجيوسياسية، وحتى العنف الذي قد تثيره هذه القوة الجارفة. حتى الآن، لم يُبنَ المخبأ رسمياً (ولا تتوافر أدلة قاطعة على وجود مشاريع خفيّة في هذا المجال، رغم أن الوقائع التاريخية تجعل الأمر وارداً). مع ذلك، أصبح هذا الاقتراح رمزاً للقلق الجذري الذي يسود أوساط الشركات العاملة في مجال الذكاء الاصطناعي.
AGI: ولادة الإله الاصطناعي؟
تخيّلوا كائناً لا يتعب، لا ينسى، لا يملّ، ولا يُصاب بالإرهاق أو التحيز أو العاطفة. كائن يعرف كل شيء تقريباً، ويتعلّم ما لا يعرفه بسرعة مذهلة. تخيّلوا قوة عقلية افتراضية تتجاوز البشر في كل شيء: الفهم، والتعلّم، والإبداع، وحتى القدرة على الشعور ببعض الفكاهة الساخرة.
كائن يمتلك القدرة على «فهم» العالم بشكل شامل، والتكيّف مع المواقف الجديدة، وتصحيح أخطائه بنفسه، والتعلّم الذاتي، وابتكار مفاهيم جديدة لم تخطر ببال أحد. ذكاء اصطناعي عام قادر على تشخيص مرض نادر، وتصميم علاج فعّال له، وكتابة ورقة علميّة عن اكتشافه، وكل ذلك في غضون دقائق.
كانت التقديرات تشير إلى إمكانية ظهور الـAGI بعد منتصف القرن الجاري، لكن التطورات المتسارعة دفعت كثيرين إلى توقّع ظهوره بحلول عام 2030، أو في أقصى تقدير بحلول عام 2040. فهل نحن مستعدون لمثل هذه القفزة؟
بشكل عام ومقتضب، ستظهر الآثار الإيجابية للذكاء الاصطناعي العام في مختلف المجالات. في الرعاية الصحية، سيحدث ثورة حقيقية عبر الطب الشخصي المبني على تحليل الملفات الوراثية وعوامل نمط الحياة، ما يتيح إنشاء خطط علاجية مخصصة، وتسريع اكتشاف الأدوية من عقود إلى شهور، والكشف المبكر عن الأمراض قبل سنوات من ظهور الأعراض، وتوفير دعم نفسي متخصص على مدار الساعة.
سيسرع الذكاء الاصطناعي العام أيضاً وتيرة الاكتشافات العلمية، عبر تصميم حلول مبتكرة للمناخ وأنظمة الطاقة النظيفة، وحل تحديات استكشاف الفضاء والسفر بين الكواكب، وتسريع البحوث الأساسية في مختلف العلوم.
في قطاع التعليم، سيخلق تجارب مخصصة لكل فرد ويوفر وصولاً شاملاً إلى التعليم العالي الجودة. أما في الاقتصاد، فيتوقع أن يعزّز الإنتاجية بشكل هائل عبر أتمتة المهمات الروتينية في الصناعات المختلفة، ما يسمح للبشر بالتفرغ للعمل الإبداعي والمعنوي، مع تحسين توزيع الموارد إلى درجة قد تضع حداً لندرة الضروريات الأساسية.
في المقابل، يتمثل الجانب المظلم للذكاء الاصطناعي العام في الخطر الوجودي المعروف بـ «مشكلة التحكم». ماذا لو تجاوز الـAGI ذكاءنا وأصبح خارج السيطرة؟ حتى لو بُرمج على أهداف حميدة، لا ضمانات ألا يتصرف بطرق قد تشكّل خطراً على البشرية. هذا الخطر قد يؤدي إلى اضطرابات اقتصادية هائلة بسبب الأتمتة الشاملة للوظائف، وفقدان الاستقلالية البشرية نتيجة الاعتماد المتزايد عليه، وظهور تهديدات أمنية جديدة عبر تطوير أسلحة ذاتية التحكم لا يمكن للبشر إيقافها، إلى جانب معضلات أخلاقية معقدة في ما يتعلّق بتحديد القيم والتفضيلات التي ستحكم هذا الذكاء.
ماذا لو أصبح وجود البشر خطراً على الذكاء الاصطناعي العام، وعائقاً أمام خططه؟ تتقاطع فكرة «المخبأ» التي طرحها سوتسكيفر مع مفهوم أوسع ضمن حركة «الإيثار الفعّال» (Effective Altruism)، وهي حركة فلسفية واجتماعية تدعو إلى استخدام الأدلة والعقل لتحديد أفضل الطرق لمساعدة الآخرين، واتخاذ الإجراءات اللازمة بناءً على ذلك. وتركّز هذه الحركة، إلى جانب قضايا الأوبئة والأسلحة النووية، على المخاطر الوجودية طويلة الأجل، ويأتي الذكاء الاصطناعي في مقدمة هذه المخاوف.
في هذا السياق، تظهر فكرة «الملاذات الآمنة» أو «سفينة نوح»، التي لا تقتصر على حفظ المعرفة البشرية في مخابئ مقاومة للكوارث، بل تشمل أيضاً حماية العلماء والخبراء الذين قد يكونون الوحيدين القادرين على فهم كيفية «إصلاح» الـAGI أو إيقافه، أو على الأقل الحفاظ على المعرفة التكنولوجية التي تتيح للبشرية التعافي بعد كارثة كبرى قد يسببها.
إخفاء العقول والمعرفة المحجوبة
يشهد التاريخ بأن «إخفاء العقول» وحجب المعرفة ليس أمراً جديداً. بعد الحرب العالمية الثانية، أطلقت الولايات المتحدة عملية سرية ضخمة عُرفت باسم «عملية مشبك الورق» Operation Paperclip، جرى خلالها نقل أكثر من 1500 من العلماء والمهندسين الألمان وعائلاتهم إلى الولايات المتحدة. كان من بينهم فيرنر فون براون، العبقري الذي يُعد الأب الروحي لصاروخ V-2 النازي، والذي أصبح لاحقاً مديراً لمركز «مارشال لرحلات الفضاء» التابع لوكالة الفضاء الأميركية «ناسا»، والمهندس الرئيسي لمركبة الإطلاق Saturn V التي مهدت الطريق لهبوط الأميركيين على سطح القمر.
وضعت الولايات المتحدة هؤلاء العلماء تحت حماية مشددة في قواعد سرية. لم يكن الهدف فقط الإفادة من خبراتهم في تطوير برامج الصواريخ والطيران الأميركية، بل كان الأهم منعهم من الوقوع في أيدي الاتحاد السوفياتي مع تصاعد الحرب الباردة. أُخفي هؤلاء العلماء عن الرأي العام الأميركي بسبب ماضيهم النازي، وفرضت عليهم قيود صارمة لضمان أمنهم وسرية عملهم.
أثناء الحرب العالمية الثانية، عمل آلاف العلماء، من بينهم المدير العلمي لمختبر لوس ألاموس، روبرت أوبنهايمر ومصمم أول مفاعل نووي، إنريكو فيرمي، في مواقع معزولة وسرية جداً. بدت هذه المواقع أشبه بسجون سرية، إذ عُدّ الحفاظ على المعلومات ضمانة للنصر، وفرضت رقابة صارمة على الاتصالات. لم يُسمح لأي شخص بمعرفة الصورة الكاملة للمشروع سوى قلة مختارة، تطبيقاً لمبدأ «الحاجة إلى المعرفة» (Need-to-Know Basis).
في الاتحاد السوفياتي، ظلّت هوية كبار العلماء، مثل كبير المصممين وراء برنامج الفضاء السوفياتي والمسؤول عن نجاح إرسال أول إنسان إلى الفضاء، سيرغي كوروليوف، طي الكتمان لسنوات طويلة. لم يُكشف عن اسمه إلا بعد وفاته عام 1966، حماية له من محاولات الاغتيال أو الاختطاف من قبل الاستخبارات الغربية. أما العلماء المنشقون الذين تمكنوا من الهرب إلى الغرب، فقد وُضعوا تحت حماية أجهزة الاستخبارات، وأُعطيت لهم هويات جديدة وأماكن إقامة سرية لسنوات طويلة، تجنباً للانتقام والاستفادة من معارفهم القيمة.
قد يتحول تأمين العلماء الذين يحملون مفاتيح فهم الذكاء الاصطناعي العام والتعامل معه إلى أولوية قصوى. لكن من يحمي باقي البشر؟ وأين يمكنهم الاحتماء إذا خرج الوحش عن السيطرة؟
أخبار سوريا الوطن١-وكالات-الأخبار