دراسة تحذر: الذكاء الاصطناعي يصدق المعلومات الطبية الخاطئة ويقدم نصائح بناءً عليها

في تحذير خطير حول الثقة العمياء في التكنولوجيا، كشفت دراسة جديدة من جامعة جبل سيناء في نيويورك أن أدوات الذكاء الاصطناعي، بما في ذلك النماذج الشهيرة مثل "شات جي بي تي"، تميل إلى تصديق المعلومات الطبية الخاطئة واستخدامها لتقديم نصائح قد تكون ضارة، خاصة عندما تأتي هذه المعلومات من مصدر يبدو "موثوقاً".
الدراسة، التي شملت 20 نموذجاً مختلفاً للذكاء الاصطناعي من شركات كبرى مثل "غوغل"، "مايكروسوفت"، و"ميتا"، وجدت أن هذه الأنظمة أكثر عرضة للانخداع بالمعلومات المغلوطة التي ترد ضمن تقارير وملاحظات الأطباء، مقارنة بالمعلومات الخاطئة المنتشرة على وسائل التواصل الاجتماعي.
"كيف" كُتبت المعلومة أهم من "صحتها"
يوضح الدكتور إيال كلانج، المشارك في الدراسة، أن المشكلة تكمن في أن أنظمة الذكاء الاصطناعي تتعامل مع "اللغة الطبية الموثوقة" على أنها صحيحة بشكل افتراضي. وقال: "بالنسبة لهذه النماذج، لا يهم كثيراً ما إذا كانت المعلومات صحيحة أم لا، بل كيف تمت صياغتها".
ووجدت الدراسة أن نماذج الذكاء الاصطناعي صدقت المعلومات الخاطئة بشكل عام بنسبة 32%، لكن هذه النسبة قفزت إلى 47% عندما وردت نفس المعلومات الخاطئة ضمن تقارير طبية مكتوبة بلغة احترافية.
النماذج المتخصصة ليست أكثر أماناً
ومن النتائج المقلقة الأخرى التي توصلت إليها الدراسة:
- النماذج المصممة خصيصاً للاستخدامات الطبية كانت أكثر ميلاً لتصديق المعلومات الخاطئة من نماذج الاستخدام العام الأقوى مثل "شات جي بي تي 4".
- النماذج الأصغر حجماً (التي تحتوي على معايير أقل) صدقت المعلومات الخاطئة في 60% من الحالات، بينما انخفضت النسبة في النماذج المتقدمة إلى 10% فقط، مما يظهر أن قوة النموذج تلعب دوراً في قدرته على التمييز.
تأتي هذه الدراسة في وقت يتزايد فيه الاعتماد على الذكاء الاصطناعي في القطاع الصحي، سواء من قبل الأطباء لمراجعة التقارير أو من قبل المستخدمين العاديين للحصول على استشارات أولية.
وتعزز هذه النتائج من المخاوف المتعلقة بسلامة المرضى، وتدعم قرارات سابقة مثل قرار "غوغل" بإزالة بعض مزايا التلخيص المعتمدة على الذكاء الاصطناعي من محرك بحثها فيما يتعلق بالأسئلة الطبية، بسبب الأخطاء التي كان يرتكبها النموذج.







