يخطئ أحيانًا.. ChatGPT ينشئ خططًا لعلاج السرطان مليئة بالأخطاء

كشف باحثون في مستشفى بريجهام والنساء، وهو مستشفى تعليمي تابع لكلية الطب بجامعة هارفارد في بوسطن، أن خطط علاج السرطان التي أنشأها برنامج الدردشة الآلي الثوري الخاص بـ OpenAI كانت مليئة بالأخطاء، وفقًا للدراسة التي نُشرت في مجلة JAMA Oncology. خطط العلاج لمجموعة متنوعة من حالات السرطان احتوى ثلث استجابات نماذج اللغة الكبيرة على معلومات غير صحيحة.

وبحسب موقع Business Insider، أشارت الدراسة إلى أن روبوتات الدردشة تميل إلى خلط المعلومات الصحيحة وغير الصحيحة معًا، بطريقة تجعل من الصعب تحديد ما هو دقيق.

وقال التقرير إنه من بين إجمالي 104 استفسارات، فإن حوالي 98% من استجابات ChatGPT تضمنت توصية علاجية واحدة على الأقل تفي بإرشادات الشبكة الوطنية الشاملة للسرطان.

وقالت الدكتورة دانييل بيترمان، المؤلفة المشاركة، إن الباحثين اندهشوا من الدرجة التي تم بها خلط المعلومات غير الصحيحة مع المعلومات الصحيحة، مما يجعل من الصعب بشكل خاص اكتشاف الأخطاء حتى بالنسبة للخبراء.

وأضافت: “يتم تدريب نماذج اللغة الكبيرة لتقديم استجابات تبدو مقنعة للغاية، لكنها ليست مصممة لتقديم نصيحة طبية دقيقة”.

وأوضحت أن “معدل الخطأ وعدم استقرار الاستجابات يعد من مشكلات السلامة الحرجة التي يجب معالجتها في المجال السريري”.

أحدث ChatGPT ضجة كبيرة عندما تم إطلاقه في نوفمبر 2022، حيث وصل إلى 100 مليون مستخدم نشط بعد شهرين من ظهوره لأول مرة. وأثار روبوت الدردشة أيضًا اندفاعًا للاستثمار في شركات الذكاء الاصطناعي ونقاشًا حادًا حول تأثير الذكاء الاصطناعي على المدى الطويل؛ ووجد بحث جولدمان ساكس أنه يمكن أن يؤثر على 300 مليون وظيفة على مستوى العالم.

على الرغم من نجاح ChatGPT، لا تزال نماذج الذكاء الاصطناعي التوليدية عرضة “للهلوسة”، حيث تقدم بثقة معلومات غير صحيحة أو مضللة إلى حد كبير.

اكتشف أحد علماء الكمبيوتر في جامعة هارفارد مؤخرًا أن GPT-4، أحدث إصدار من النموذج، قادر على اجتياز اختبار الترخيص الطبي الأمريكي بنجاح كبير، واقترح أنه يتمتع بحكم سريري أفضل من بعض الأطباء، ولكن على الرغم من ذلك، هناك مشكلات في الدقة مع النماذج التوليدية مثل ChatGPT تعني أنه من غير المرجح أن تحل محل الأطباء في أي وقت قريب.

وجدت دراسة JAMA أن 12.5% ​​من استجابات ChatGPT كانت عبارة عن “هلوسة”، وأن روبوت الدردشة كان أكثر عرضة لتقديم معلومات غير صحيحة عند سؤاله عن العلاج الموضعي لمرض متقدم أو العلاج المناعي.

وقد أقرت OpenAI بأن ChatGPT قد لا يكون موثوقًا به، وتحذر شروط الاستخدام الخاصة بالشركة من أن نماذجها ليست مصممة لتوفير معلومات طبية، ولا ينبغي استخدامها لتقديم خدمات تشخيصية أو علاج لحالات طبية خطيرة.

المصدر

زر الذهاب إلى الأعلى