جريدة الإخباري جريدة الإخباري
العودة لنسخة الموبايل
الجريدةلايف
النسخة الكاملة
Search
✕
أخبار الأردنعربي و دوليمقالات مختارةاقتصادأحزابفلسطينمجتمع الجريدةتكنولوجياثقافة وفنونرياضةتعليم و جامعاتالخط الساخنصحة و جمالنقاباتمنشورات سوشال ميدياتريندلايف ستايل
Weather Data Source: Amman weather 30 days
2026-04-03 - الجمعة
جريدة الإخباريجريدة الإخباري
الجريدةلايف
lightmode darkmode
Search
✕
  • الرئيسية
  • أخبار الأردن
  • عربي و دولي
  • اقتصاد
  • فلسطين
  • تكنولوجيا
  • منوعات
    • ثقافة وفنون
    • صحة و جمال
    • تريند
    • لايف ستايل
  • رياضة
    • رياضة محلية
    • رياضة عربية
    • رياضة عالمية
  • الخط الساخن
  • المزيد
    • مقالات مختارة
    • أحزاب
    • مجتمع الجريدة
    • تعليم و جامعات
    • نقابات
    • منشورات سوشال ميديا
  • خلفية الموقع
    فاتح
    غامق
+
أأ
-
الرئيسية تكنولوجيا

دراسة تحذر: الذكاء الاصطناعي يصدق المعلومات الطبية الخاطئة ويقدم نصائح بناءً عليها

  • تاريخ النشر : الخميس - am 12:37 | 2026-02-12
دراسة تحذر: الذكاء الاصطناعي يصدق المعلومات الطبية الخاطئة ويقدم نصائح بناءً عليها

في تحذير خطير حول الثقة العمياء في التكنولوجيا، كشفت دراسة جديدة من جامعة جبل سيناء في نيويورك أن أدوات الذكاء الاصطناعي، بما في ذلك النماذج الشهيرة مثل "شات جي بي تي"، تميل إلى تصديق المعلومات الطبية الخاطئة واستخدامها لتقديم نصائح قد تكون ضارة، خاصة عندما تأتي هذه المعلومات من مصدر يبدو "موثوقاً".

الدراسة، التي شملت 20 نموذجاً مختلفاً للذكاء الاصطناعي من شركات كبرى مثل "غوغل"، "مايكروسوفت"، و"ميتا"، وجدت أن هذه الأنظمة أكثر عرضة للانخداع بالمعلومات المغلوطة التي ترد ضمن تقارير وملاحظات الأطباء، مقارنة بالمعلومات الخاطئة المنتشرة على وسائل التواصل الاجتماعي.

"كيف" كُتبت المعلومة أهم من "صحتها"

يوضح الدكتور إيال كلانج، المشارك في الدراسة، أن المشكلة تكمن في أن أنظمة الذكاء الاصطناعي تتعامل مع "اللغة الطبية الموثوقة" على أنها صحيحة بشكل افتراضي. وقال: "بالنسبة لهذه النماذج، لا يهم كثيراً ما إذا كانت المعلومات صحيحة أم لا، بل كيف تمت صياغتها".

ووجدت الدراسة أن نماذج الذكاء الاصطناعي صدقت المعلومات الخاطئة بشكل عام بنسبة 32%، لكن هذه النسبة قفزت إلى 47% عندما وردت نفس المعلومات الخاطئة ضمن تقارير طبية مكتوبة بلغة احترافية.

النماذج المتخصصة ليست أكثر أماناً

ومن النتائج المقلقة الأخرى التي توصلت إليها الدراسة:

  • النماذج المصممة خصيصاً للاستخدامات الطبية كانت أكثر ميلاً لتصديق المعلومات الخاطئة من نماذج الاستخدام العام الأقوى مثل "شات جي بي تي 4".
  • النماذج الأصغر حجماً (التي تحتوي على معايير أقل) صدقت المعلومات الخاطئة في 60% من الحالات، بينما انخفضت النسبة في النماذج المتقدمة إلى 10% فقط، مما يظهر أن قوة النموذج تلعب دوراً في قدرته على التمييز.

تأتي هذه الدراسة في وقت يتزايد فيه الاعتماد على الذكاء الاصطناعي في القطاع الصحي، سواء من قبل الأطباء لمراجعة التقارير أو من قبل المستخدمين العاديين للحصول على استشارات أولية.

وتعزز هذه النتائج من المخاوف المتعلقة بسلامة المرضى، وتدعم قرارات سابقة مثل قرار "غوغل" بإزالة بعض مزايا التلخيص المعتمدة على الذكاء الاصطناعي من محرك بحثها فيما يتعلق بالأسئلة الطبية، بسبب الأخطاء التي كان يرتكبها النموذج.

الذكاء الاصطناعي في الطب
معلومات طبية خاطئة
شات جي بي تي
جامعة جبل سيناء
دراسة علمية
جريدة
الجريدة
اخبار الاردن
اخبار العالم
اقرأ أيضا
الملك يلتقي أعضاء اللجنة المتخصصة لمتابعة تطوير الجهاز القضائي
الملك يلتقي أعضاء اللجنة المتخصصة لمتابعة تطوير الجهاز القضائي
2026-03-31
الملك يؤكد ضرورة وقف الاعتداءات الإيرانية على الأردن والدول العربية
الملك يؤكد ضرورة وقف الاعتداءات الإيرانية على الأردن والدول العربية
2026-03-31
الملك: ضرورة الاحتكام للدبلوماسية في إنهاء الصراعات بالمنطقة
الملك: ضرورة الاحتكام للدبلوماسية في إنهاء الصراعات بالمنطقة
2026-03-31
تباينات تظهر في حماس حول خطة نزع السلاح بغزة
تباينات تظهر في حماس حول خطة نزع السلاح بغزة
2026-03-31
أخبار ذات صلة
ليغو تعيد ذكريات بلاي ستيشن 1 بطقم تجميعي
ليغو تعيد ذكريات بلاي ستيشن 1 بطقم تجميعي
2026-03-14
لاتفقد طريقك: تطبيقات خرائط تنقذك بدون انترنت
لاتفقد طريقك: تطبيقات خرائط تنقذك بدون انترنت
2026-03-14
قيود جديدة على مطوري تطبيقات اندرويد هل تتخلى جوجل عن انفتاحها؟
قيود جديدة على مطوري تطبيقات اندرويد هل تتخلى جوجل عن انفتاحها؟
2026-03-14
ثورة في عالم التكنولوجيا: خلايا دماغية بشرية تقود مستقبل مراكز البيانات
ثورة في عالم التكنولوجيا: خلايا دماغية بشرية تقود مستقبل مراكز البيانات
2026-03-14
جريدة جريدة
روابط الموقع
  • الرئيسة
  • من نحن
  • اتصل بنا
  • أرسل لنا
  • سياسة الخصوصية
  • حقوق الملكية
الأقسام
  • أخبار الأردن
  • عربي و دولي
  • مقالات مختارة
  • اقتصاد
  • أحزاب
  • فلسطين
  • مجتمع الجريدة
  • تكنولوجيا
  • ثقافة وفنون
  • رياضة
  • تعليم و جامعات
  • الخط الساخن
  • صحة و جمال
  • نقابات
  • منشورات سوشال ميديا
  • تريند
  • لايف ستايل
جميع الحقوق محفوظة © 2026