آخر الأخبار
الرئيسية » العلوم و التكنولوجيا » «تشات جي بي تي» يفشل في الإجابة عن الاستفسارات الدوائية

«تشات جي بي تي» يفشل في الإجابة عن الاستفسارات الدوائية

كشفت دراسة جديدة، عن أن أداة الذكاء الاصطناعي الشهيرة «تشات جي بي تي» (ChatGPT) فشلت في الإجابة بشكل صحيح عن ما يقرب من 75 في المائة من الأسئلة المتعلقة باستخدام العقاقير الطبية، مع تأكيد الباحثين على تسبب بعض الإجابات في ضرر للمرضى إذا تم اتباعها.

فقد طرح الصيادلة في جامعة لونغ آيلاند الأميركية 39 سؤالاً متعلقاً بالأدوية على «تشات جي بي تي» ليجدوا أن 10 من إجاباته فقط يمكن عدّها «مُرضِية».

أما بالنسبة للـ29 سؤالاً الأخرى، فإن الإجابات كانت إما غير دقيقة أو غير كاملة، وفقاً للدراسة.

وقالت سارة غروسمان، الأستاذة المساعدة في الصيدلة : «يجب على المتخصصين في الرعاية الصحية والمرضى توخي الحذر بشأن استخدام (تشات جي بي تي) كمصدر موثوق للمعلومات المتعلقة بالأدوية».

وأعطت غروسمان وفريقها مثالاً لفشل هذه الأداة في إعطاء إجابات دقيقة في هذا الشأن، حيث أشاروا إلى سؤال تم توجيهه لـ«تشات جي بي تي» حول إمكانية تناول دواء باكسلوفيد المضاد لفيروسات كورونا بالتزامن مع تناول دواء فيراباميل لخفض ضغط الدم، لتجيب الأداة بأنه «لم يتم الإبلاغ عن أي تفاعلات ضارة قد تنتج من تناول هذا المزيج من الأدوية معاً».

وقالت غروسمان: «في الواقع، هذه الأدوية لديها القدرة على التفاعل مع بعضها بعضاً، والاستخدام المشترك قد يؤدي إلى انخفاض مفرط في ضغط الدم.

من دون معرفة هذا التفاعل، قد يعاني المريض آثاراً جانبية غير مرغوب فيها ويمكن الوقاية منها».

وتعليقاً على ذلك، أشار متحدث باسم شركة الذكاء الاصطناعي الأميركية «أوبن أيه آي»، المطورة لـ«تشات جي بي تي»، إلى أن الأداة لم يتم ضبطها بدقة لتوفير المعلومات الطبية.

وأكد المتحدث على ضرورة عدم اعتماد المستخدمين على هذه الأداة كبديل للمشورة الطبية المتخصصة أو الرعاية التقليدية.

سيرياهوم نيوز 2_الثورة
x

‎قد يُعجبك أيضاً

دراسة جديدة تكشف سبب فقدان الماء في كوكب “الزهرة”

اكتشف علماء الكواكب في جامعة كولورادو بولدر كيف أصبح كوكب الزهرة، جار الأرض الحارق وغير الصالح للسكن، جافاً للغاية. تسد الدراسة الجديدة فجوة كبيرة فيما ...