GPT-4 يتحدى أطباء العيون في تحليل المشاكل البصرية فما القصة ؟ “وفقًا لدراسة حديثة أجرتها كلية الطب السريري بجامعة كامبريدج، فإن أداء GPT-4 من OpenAI كان يقترب من جودة تقييم أطباء العيون والتي يقدمها الخبراء في هذا المجال، وفقًا لتقرير نشرته صحيفة Financial Times لأول مرة. مع تطور النماذج اللغوية الكبيرة، تثير أيضًا أسئلة حول كيفية استفادة المجتمع في مجالات مثل الطب.”
أقرا أيضاً: بلاك شارك تكشف عن أول خاتم ذكي: ابتكار مثير يحمل وعد التكنولوجيا المحمولة
GPT-4 يتحدى طب العيون
في الدراسة التي نُشرت في PLOS Digital Health، قام الباحثون بتقييم النماذج اللغوية الكبيرة GPT-4 و GPT-3.5 و Google PaLM 2 و Meta LLaMA باستخدام 87 سؤالًا متعدد الاختيارات. شارك خمسة أطباء عيون متخصصون، وثلاثة أطباء عيون متدربون، وطبيبان مبتدئان غير متخصصين في الاختبار الوهمي نفسه.
تم اختيار الأسئلة من كتاب دراسي مصمم لتدريب المتدربين على مجموعة متنوعة من المواضيع، بدءًا من حساسية الضوء وصولاً إلى الأمراض المزمنة. نظرًا لعدم توفر هذا المحتوى للجمهور العام، يرجح الباحثون أنه لم يتم تدريب النماذج اللغوية الكبيرة على مثل هذه البيانات مسبقًا.
تمنح ChatGPT، الذي يعتمد على GPT-4 أو GPT-3.5، ثلاث فرص للاجابة بصورة قاطعة أو وضع علامة على استجابته كفارغة. وقد حصل GPT-4 على درجات أعلى من تلك المُعطاة للمتدربين والأطباء المبتدئين، إذ أجاب بشكل صحيح على 60 من أصل 87 سؤالًا.
هذا الرقم كان أعلى بكثير من متوسط الأطباء المبتدئين، الذي بلغ 37 إجابة صحيحة، وتخطى أيضًا متوسط المتدربين الثلاثة الذي بلغ 59.7 إجابة صحيحة. وقد أجاب أحد أطباء العيون الخبراء على 56 سؤالًا بدقة، وبلغ متوسط درجات الخمسة أطباء 66.4 إجابة صحيحة، متفوقين معًا على النموذج اللغوي الكبير.
في نفس السياق، سجل Google PaLM 2 49 إجابة صحيحة، بينما سجل GPT-3.5 42 إجابة صحيحة. أما Meta LLaMA، فقد سجلت أدنى درجة بواقع 28 إجابة صحيحة، وهو أقل من أداء الأطباء المبتدئين. يُذكر أن هذه التجارب جرت في منتصف عام 2023.
أشار الباحثون إلى أن الدراسة قدمت عددًا محدودًا من الأسئلة، خاصة في بعض الفئات، مما يعني أن النتائج الفعلية قد تظهر تباينًا. وكما هو الحال في العديد من الحالات التي تشمل استخدام النماذج اللغوية الكبيرة، قد تفتقر الأنظمة في بعض الأحيان إلى الدقة الدقيقة، مما يزيد من احتمالية وقوع أخطاء.