آخر الأخبار
الرئيسية » العلوم و التكنولوجيا » اتهامات جديدة لـ “ديب سيك” الصينية باستخدام بيانات “غوغل جيميني” في تدريب نموذجها الذكي

اتهامات جديدة لـ “ديب سيك” الصينية باستخدام بيانات “غوغل جيميني” في تدريب نموذجها الذكي

أطلقت شركة “ديب سيك” الصينية مؤخراً نسخةً محدثةً من نموذجها للذكاء الاصطناعي المنطقي R1، والذي أظهر أداءً لافتًا في اختبارات البرمجة والرياضيات. لكن سرعان ما واجه النموذج موجة من الشكوك حول مصادر بيانات تدريبه، وسط اتهامات بأنه استند إلى مخرجات نماذج ذكاء اصطناعي منافسة، وعلى رأسها “جيميني” التابع لـ “غوغل”.

ورغم أن “ديب سيك” لم تكشف رسميًا عن البيانات المستخدمة، إلا أن باحثين ومطوّرين بارزين في مجال الذكاء الاصطناعي رجّحوا أن بعض مكونات النموذج الجديد قد تم تدريبها على مخرجات “جيميني”. من بين هؤلاء، سام بايتش، مطوّر مقيم في ملبورن يُجري تقييمات على ما يُعرف بـ “الذكاء العاطفي” للنماذج، والذي نشر على منصة “إكس” (تويتر سابقًا) مؤشرات لغوية تُظهر تشابهًا كبيرًا في الأسلوب التعبيري بين النموذج الصيني R1-0528 و”جيميني 2.5 برو” من “غوغل”.

مطوّر آخر أشار إلى أن “آثار التفكير” أو مراحل توليد الإجابة لدى R1 تتشابه بشكل لافت مع آثار نموذج “جيميني”، ما عزز الشكوك حول وجود تقاطعات واضحة في البيانات التدريبية.

ولم تكن هذه المرة الأولى التي تُتهم فيها “ديب سيك” بالاستفادة من نماذج منافسة. ففي ديسمبر الماضي، لاحظ مطورون أن نموذج V3 للشركة كان يُعرّف نفسه أحيانًا على أنه “شات جي بي تي”، وهو ما أثار التساؤلات حول احتمالية تدريبه على سجلات دردشة من منصة “OpenAI”.

وبحسب صحيفة “فاينانشال تايمز”، فإن “OpenAI” رصدت بالفعل دلائل على استخدام “ديب سيك” تقنية التقطير (Distillation) لاستخلاص المعرفة من نماذج أكبر. كما اكتشفت “مايكروسوفت” – شريكة OpenAI – في أواخر 2024، عمليات تسريب واسعة للبيانات من حسابات مطوّرين يُعتقد أنها مرتبطة بـ “ديب سيك”.

ورغم أن تقنية التقطير ليست غير قانونية بحد ذاتها، إلا أن شروط استخدام نماذج “OpenAI” تمنع صراحةً استخدام المخرجات لبناء نماذج منافسة، ما يُضفي بُعداً قانونياً على المسألة.

يُشار إلى أن بيئة الإنترنت المفتوحة التي تعتمد عليها الشركات لجمع البيانات أصبحت ملوّثة بمحتوى منشأ بالذكاء الاصطناعي نفسه، ما يزيد من صعوبة التحقق من “نقاء” البيانات التدريبية. فمزارع المحتوى والروبوتات تغمر المنصات مثل “رديت” و”إكس”، مما يصعّب التمييز بين البيانات البشرية والنماذجية.

ورغم هذه التحديات، لا يستبعد خبراء بارزون مثل ناثان لامبرت من معهد AI2 أن تكون “ديب سيك” قد استخدمت فعلاً بيانات مستخرجة من “جيميني”، خاصة في ظل امتلاكها لموارد مالية وفيرة تقابلها شح في وحدات المعالجة الرسومية (GPU)، مما يجعل التقطير وسيلة مثالية لتحقيق أقصى استفادة من النماذج العامة المتاحة.

وردًا على المخاوف المتزايدة، بدأت شركات الذكاء الاصطناعي الكبرى بتشديد إجراءات الأمان. فقد فرضت “OpenAI” منذ أبريل 2025 عملية تحقق إلزامية تشمل تقديم هوية حكومية لاستخدام نماذجها المتقدمة، مع استبعاد الصين من الدول المؤهلة. أما “غوغل”، فقد بدأت مؤخرًا بتلخيص آثار النماذج ضمن منصة AI Studio، لتقليل فرص استنساخها. وفي ذات الاتجاه، أعلنت “أنثروبيك” في مايو عن تلخيص آثار نموذجها أيضًا، لحماية قدراتها التنافسية.

وفي الوقت الذي تسعى فيه الشركات العالمية للحفاظ على خصوصية تقنياتها، يطرح ملف “ديب سيك” أسئلة جادة حول أخلاقيات الذكاء الاصطناعي في ظل غياب إطار عالمي موحد للضوابط والمعايير.

 

 

 

 

اخبار سورية الوطن 2_وكالات _راي اليوم

x

‎قد يُعجبك أيضاً

ثورة الأطراف الاصطناعيّة البيولوجيّة: عضلات تنمو من خلايا بشريّة

  تشهد أبحاث الهندسة الحيوية تطوراً سريعاً نحو تحقيق هدف بدا يوماً ما ضرباً من الخيال: إنتاج أطراف اصطناعية حيوية قادرة على الحركة الطبيعية، والتجدد، ...