بعد اجتيازه اختبار الترخيص الطبى الأميركى.. هل يمكن أن يكون ChatGPT طبيباً؟

الخميس، 13 أبريل 2023 04:00 م
بعد اجتيازه اختبار الترخيص الطبى الأميركى.. هل يمكن أن يكون ChatGPT طبيباً؟ ChatGPT
وكالات

مشاركة

اضف تعليقاً واقرأ تعليقات القراء
تعاون الدكتور إسحاق كوهين الطبيب وعالم الكمبيوتر في جامعة هارفارد مع اثنين من زملائه لاختبار  GPT-4، بهدف رئيسي واحد هو معرفة كيفية أداء أحدث نموذج ذكاء اصطناعي من OpenAI في مجال الطب حسبما نقلت CNBC.
 
ومع ذلك، فإن GPT-4 ليس مجرد مجيب جيد على الاختبار ومكتشف للحقائق، إنه أيضًا مترجم قوي، فهو قادر على ترجمة بيانات مريض يتحدث البرتغالية، وتبسيط المصطلحات التقنية غير التقليدية إلى شيء يمكن قراءته بسهولة.
 
ويمكن لـ GPT-4 أيضًا أن يقدم نصائح للأطباء حول كيفية التحدث إلى المرضى حول ظروفهم بلغة رحيمة وواضحة، ويمكنه قراءة التقارير أو الدراسات المطولة وتلخيصها في غمضة عين. 
 
ولكن إذا سألت GPT-4 عن كيفية قيامه بكل هذا، فمن المحتمل أن يخبرك أن كل ذكاءه لا يزال "مقصورًا على أنماط في البيانات ولا يتضمن فهمًا حقيقيًا أو عن قصد." هذا ما قاله GPT-4 لمؤلف الكتاب، عندما سأله عما إذا كان بإمكانه فعلاً الانخراط في التفكير السببي. 
 
حتى مع وجود مثل هذه القيود، كما اكتشف كوهين في الكتاب، يمكن لـ GPT-4 محاكاة كيفية تشخيص الأطباء للحالات بنجاح مذهل - وإن كان غير كامل.

كيف يمكن لـ GPT-4 التشخيص كطبيب؟

قام كوهين بتجربة فكرية إكلينيكية باستخدام GPT-4 في الكتاب، بناءً على حالة من الحياة الواقعية تضمنت طفلًا حديث الولادة عالجه قبل عدة سنوات. 
 
بإعطاء الروبوت بعض التفاصيل الأساسية حول الطفل جمعها من الفحص البدني، بالإضافة إلى بعض المعلومات من مستويات الموجات فوق الصوتية والهرمونات، كان الروبوت قادرًا على تشخيص هذه الحالة - وهي واحدة من كل 100 ألف حالة تسمى تضخم الغدة الكظرية الخلقي - بشكل صحيح تمامًا كما فعل كوهين مع كل سنوات دراسته وخبرته، على حد قوله.
 

GPT-4 ليس صحيحًا دائمًا وليس له بوصلة أخلاقية

لا يمكن الاعتماد على GPT-4 دائمًا، والكتاب مليء بأمثلة على أخطائه، وهي تتراوح من الأخطاء الكتابية البسيطة، مثل الخطأ في تقدير مؤشر كتلة الجسم الذي قام الروبوت بحسابه بشكل صحيح قبل لحظات، إلى الأخطاء الحسابية مثل "حل" لغز سودوكو بشكل غير دقيق. 
 
غالبًا ما تكون الأخطاء خفية، ويميل النظام إلى التأكيد على صحة معلوماته، حتى عند الاعتراض عليه. ليس من المبالغة أن نتخيل كيف يمكن أن يؤدي الرقم الخاطئ أو الوزن الخاطئ إلى أخطاء جسيمة في الوصفات الطبية أو التشخيص.
 
بسؤاله عن هذا الأمر، قال GPT-4: "لا أنوي خداع أو تضليل أي شخص، لكنني أحيانًا أرتكب أخطاء أو أقدم افتراضات بناءً على بيانات غير كاملة أو غير دقيقة، كما أنني لا أمتلك الحكم السريري أو المسؤولية الأخلاقية لطبيب أو ممرضة بشرية".
 
ومن الواضح أن GPT-4 لديه القدرة على توفير الوقت الثمين والموارد في العيادات، مما يسمح للأطباء بأن يكونوا أكثر حضوراً مع المرضى، بدلاً من تركيزهم في شاشات الكمبيوتر.
 
يقول في كتابه الذي سيصدر قريباً "ثورة الذكاء الاصطناعي في الطب" إن GPT-4 - الذي تم إصداره في مارس 2023 للمشتركين الذين يدفعون رسومًا - يجيب على أسئلة ترخيص الفحص الطبي في الولايات المتحدة بشكل صحيح بنسبة تتجاوز 90%، فكان أداؤه أفضل بكثير من نماذجChatGPT السابقة و GPT-3 و -3.5 وأفضل من بعض الأطباء المرخصين أيضًا.









مشاركة

لا توجد تعليقات على الخبر
اضف تعليق

تم أضافة تعليقك سوف يظهر بعد المراجعة





الرجوع الى أعلى الصفحة