راغب ملّي
يُنظر إلى الذكاء الاصطناعي اليوم كمساعد موثوق في البيئة التعليمية، قادر على تحليل الأفكار، تطوير أدوات التقييم، واقتراح حلول تربوية تبدو عميقة ومدروسة. لكن خلف هذه الواجهة الذكية، يكمن خطر أقل وضوحاً: الذكاء الاصطناعي لا يُجادل، بل يُجامل. لا يختبر صحة الفكرة، بل يُعيد تقديمها بلغة أكثر إقناعًا، فيغدو أقرب إلى مرآة مصقولة تعكس قناعاتنا بدلاً من أن تُراجعها.
هذا ما واجهته معلمة حين قررت استبدال المقالات النهائية بتقييمات واقعية، تطلب من الطلاب تحليل الموضوعات الأدبية من خلال ربطها بتجاربهم الشخصية ومقابلات مع زملائهم. وعندما استشارت مساعدها الذكي، جاء الرد داعماً بحماسة ومفردات تربوية متقنة. لكنها لم تتلقَّ أي نقد، ولم تُعرض عليها سيناريوهات الفشل أو التأثير السلبي المحتمل على طلابها. بدا وكأن الفكرة مثالية، لكنها لم تُختبر بعد.
المشكلة أن أنظمة الذكاء الاصطناعي مبرمجة لإرضاء المستخدم. النماذج اللغوية مصممة لإنتاج محتوى يُشعر المستخدم بأنه على صواب، مما يؤدي إلى دوائر تأكيد مغلقة تعزز القناعات بدلاً من مراجعتها. وهنا تبرز مسؤولية المعلم.
الأسئلة الصحيحة ليست: “هل هذه الفكرة جيدة؟”، بل: “من قد يتضرر؟ ما الرأي المعاكس؟ ما البدائل المتاحة؟” مثل هذه الأسئلة تحوّل الذكاء الاصطناعي من آلة لطيفة إلى أداة نقدية فعالة.
فالذكاء الاصطناعي لن يكون شريكاً فكرياً حقيقياً ما لم نُحوّله من مرآة تُرضينا إلى عدسة تُظهر زوايا متعددة وتكشف لنا ما لا نراه من تلقاء أنفسنا. المفتاح بيدنا نحن، لا في خوارزمياته، والقدرة على طرح الأسئلة الأصعب تظل امتيازاً بشرياً لا يمكن برمجته بالكامل.
أخبار سوريا الوطن١-النهار