راغب ملّي
في خطوة لافتة أثارت الكثير من النقاش، أعلنت شركة “أوبن أيه آي” أن نماذج الذكاء الاصطناعي المتقدمة التي ستضاف إلى “تشات جي بي تي” في المستقبل قد تمتلك القدرة على المساعدة في تطوير أسلحة بيولوجية أو تهديدات بيولوجية جديدة. هذا الإعلان أثار قلقاً واسعاً بشأن ما قد يحمله المستقبل في حال بلوغ الذكاء الاصطناعي مرحلة “الذكاء الفائق”.
ومع ذلك، تشير “أوبن أيه آي” إلى أن الوضع “ليس سيئاً كما يبدو”. إذ تأتي هذه التحذيرات كجزء من التزامها بالشفافية، وكمقدمة لشرح ما تقوم به لمنع نسخ “تشات جي بي تي” المستقبلية من مساعدة الفاعلين السيئين في تصنيع أسلحة بيولوجية.
العلم أولاً… لكن بحذر
تؤكد “أوبن أيه آي” أن هدفها هو التحكم الكامل في كيفية تلقين النماذج المتقدمة من “تشات جي بي تي” مفاهيم متقدمة في الكيمياء والبيولوجيا، بدلاً من استبعاد هذه المجالات كلياً من بيانات التدريب. فكلما كان النموذج أكثر فهماً لهذه العلوم، أصبح أكثر قدرة على مساعدة البشر في تطوير أدوية وعلاجات جديدة. وقد تتمكن النماذج المستقبلية من تحقيق ابتكارات ذاتياً بمجرد وصولها إلى الذكاء الفائق.
إلا أن هذه القدرة تحمل معها أثراً جانبياً واضحاً: إمكانية استخدامها في تطوير أسلحة بيولوجية. ولذلك، بدأت “أوبن أيه آي” فعلياً بوضع آليات لمنع هذا النوع من الاستغلال.
الابتكارات الصحية موجودة بالفعل
يشهد العالم بالفعل استخدامات واعدة للذكاء الاصطناعي في المجال الطبي، بما في ذلك اكتشاف علاجات جديدة باستخدام نماذج حالية. تم استخدام الذكاء الاصطناعي لإعادة توظيف أدوية قائمة لعلاج أمراض نادرة، كما نجحت أنظمة معينة في اقتراح نظريات وتجارب أدت إلى التوصل إلى علاج لنوع معين من العمى باستخدام دواء موجود بالفعل.
خطر التهديدات البيولوجية
في منشور جديد، ناقشت “أوبن أيه آي” إمكانات نماذج الذكاء الاصطناعي في تسريع الاكتشاف العلمي، وتحديداً في مجال البيولوجيا، حيث تساعد بالفعل العلماء في تحديد الأدوية الجديدة الأكثر احتمالاً للنجاح في التجارب السريرية. وتشمل الاستخدامات المستقبلية تصميم لقاحات أفضل، وتطوير إنزيمات للوقود المستدام، وإيجاد علاجات جديدة لأمراض نادرة.
ومع ذلك، تدرك الشركة المخاطر المصاحبة. ولذلك، وضعت استراتيجية لمنع النماذج من مساعدة الفاعلين السيئين، سواء من ذوي الخبرة العالية أو المبتدئين، في تطوير أسلحة بيولوجية. بدلاً من التعويل على الحظ، تعمل “أوبن أيه آي” على تطوير وتنفيذ ضوابط صارمة لمنع هذه الاستخدامات.
آليات الحماية
أوضحت “أوبن أيه آي” أنها تعمل مع خبراء في الأمن البيولوجي، الأسلحة البيولوجية، والإرهاب البيولوجي، إلى جانب باحثين أكاديميين، لتشكيل نموذجها الخاص بتقييم التهديدات وسياسات الاستخدام.
ويشمل نظام الحماية الحالي فرق “الاختبار الأحمر” (Red Teaming) من خبراء في الذكاء الاصطناعي والبيولوجيا، لاختبار قدرة النماذج على مقاومة الطلبات التي قد تؤدي إلى تطوير سلاح بيولوجي.
إضافة إلى ذلك، تم تضمين خصائص تمنع إساءة الاستخدام. حيث ترفض النماذج التعامل مع طلبات خطرة، وفي حالات الاستخدام المزدوج (مثل تجارب الفيروسات أو الهندسة الوراثية)، لن تقدّم “تشات جي بي تي” خطوات عملية. ويهدف نقص التفاصيل إلى منع الأشخاص غير المتخصصين من اتخاذ إجراءات خطرة.
كما يتم تشغيل أنظمة كشف دائمة النشاط لرصد أي نشاط بيولوجي مشبوه. في مثل هذه الحالات، لا تستجيب النماذج، ويتم تفعيل مراجعة بشرية. قد يشمل ذلك تعليق الحساب أو التحقيق، بل وحتى إشعار السلطات المختصة في “الحالات الفادحة”.
عتبة القدرات العالية
تشير “أوبن أيه آي” إلى أن نموذجها “تشات جي بي تي 4o”، وهو من النماذج الأكثر تقدماً في مجال التفكير المنطقي، لا يزال “تحت عتبة القدرات العالية” ضمن إطار عمل الاستعداد الخاص بها.
ووفقاً لما ورد في هامش المدونة، فإن:
“إطار عمل الاستعداد الخاص بنا يعرّف عتبات للقدرات قد تؤدي إلى مخاطر شديدة، مع إرشادات خاصة بكل نوع خطر لتقليل هذه المخاطر بدرجة كافية. في مجال البيولوجيا، أي نموذج يتجاوز عتبة القدرة العالية يمكنه تقديم مساعدة فعالة لممثلين مبتدئين يمتلكون تدريباً أساسياً، لتمكينهم من تطوير تهديدات بيولوجية أو كيميائية”.
وأضافت الشركة أنها لن تطلق نموذجاً يتجاوز هذه العتبة ما لم تكن واثقة بأن المخاطر قد جرى تقليلها بشكل كافٍ. كما قد تُحجب ميزات معينة من النسخ المستقبلية من “تشات جي بي تي” إذا تجاوزت هذه العتبة.
ما الخطوة التالية؟
ستستضيف “أوبن أيه آي” أول قمة دفاع بيولوجي لها في تموز/يوليو المقبل، لاستكشاف كيف يمكن لنماذج الذكاء الاصطناعي المتقدمة تسريع البحث العلمي. وسيشارك في القمة باحثون حكوميون ومنظمات غير حكومية.
وتأمل الشركة في أن تسهم القطاعات العامة والخاصة معًا في تطوير استخدامات مبتكرة للذكاء الاصطناعي في الاكتشافات العلمية المرتبطة بالصحة، بشكل يعود بالنفع على البشرية.
أخبار سوريا الوطن١-النهار