وهم الواقع كيف تستغل صيدليات التزييف العميق الذكاء الاصطناعي للاحتيال

تمكنت تقنية التزييف العميق من تقويض الثقة في الواقع، حيث أصبحت الحواس البشرية غير كافية للتحقق من صحة ما نراه أو نسمعه، فلم يعد الصوت الذي تسمعه عبر الهاتف هو بالضرورة صوت ابنك المحتاج، ولا الوجه الذي يبتسم لك في اجتماع الفيديو هو بالضرورة وجه مديرك المالي.
وكشفت هذه التقنية عن الجانب المظلم للذكاء الاصطناعي والمتمثل في الصيدليات الرقمية التي تبيع أدوات التزييف العميق الجاهزة للاستخدام كخدمة لمن يفتقر إلى الخبرة البرمجية، مما أدى إلى ظهور جيل جديد من عمليات الاحتيال التي تعتمد على نسخ مزيفة من الأصوات والوجوه.
بدأت تقنية التزييف العميق كتجربة تعتمد على الشبكات العصبية التنافسية، لكنها سرعان ما تحولت إلى صناعة مزدهرة، حيث انتقلنا من عصر صناعة المحتوى إلى عصر تزييف الواقع، ويكفي وجود ثوان معدودة فقط من صوت شخص ما لتدريب نموذج ذكاء اصطناعي يقلد النبرة والإيقاع واللهجة بدقة، بينما يعتمد تزييف الفيديوهات على لقطات عامة أصبحت فيها حركات العين ورمش الجفون وانعكاس الإضاءة على الجلد طبيعية تماما.
وبرزت أدوات في مجال استنساخ الصوت قادرة على محاكاة المشاعر الإنسانية، مثل "إيلفين لابس" و"ريسمبل ايه اي"، بينما تسمح أدوات مثل "هايجين" و"راسك ايه اي" بإنشاء فيديوهات تتحدث بلغات متعددة مع مزامنة حركة الشفاه بدقة.
كما ظهرت نماذج لغوية كبيرة مصممة خصيصا للجريمة، مثل "وورم جي بي تي" و"كاواي جي بي تي"، مما يسمح للمحتالين بصياغة رسائل تصيد فائقة التخصيص بلغات متعددة وبسرعة.
ومع تقدم تقنيات التزييف العميق التي تباع بأسعار زهيدة عبر الويب المظلم، أصبح من السهل إنتاج فيديو مزيف لمدير بنك أو صوت مستنسخ لابنة تستغيث.
ووفق تقرير مركز شكاوى الجرائم الإلكترونية التابع لـ"مكتب التحقيقات الفيدرالي" (FBI)، تجاوزت الخسائر الناتجة عن الاحتيال المدعوم بالذكاء الاصطناعي نحو 893 مليون دولار في الولايات المتحدة خلال 2025 وحدها.
وفي الربع الأول من 2025، بلغت الخسائر من الاحتيال المعتمد على التزييف العميق أكثر من 200 مليون دولار في أمريكا الشمالية، وسجل عام 2025 زيادة كبيرة في الحالات، وشكلت حوادث التزييف العميق نحو 4 من كل 5 حوادث احتيال معتمدة على الذكاء الاصطناعي.
ووفقا لتقرير من شركة "مكافي"، يرى الأمريكيون في المتوسط 3 حالات تزييف عميق يوميا، ويعترف واحد من كل 10 بتعرضه لعملية احتيال عبر استنساخ الصوت، كما أن واحدا من كل 4 أمريكيين تلقى مكالمة صوتية مزيفة في العام الماضي، و24 في المئة آخرون غير متاكدين من قدرتهم على التمييز.
تعتمد قوة التزييف العميق في قدرته على اختراق الأصالة المعرفية، حيث أن الدماغ البشري مبرمج للوثوق بنبرة الصوت المألوفة وملامح الوجه المعروفة، خاصة في حالات الطوارئ.
وتزيل واقعية الصوت المستنسخ حواجز الشك، وتتوقف الدفاعات العقلانية عن العمل إذا كان الصوت يبدو كصوت مألوف، ومن خلال عملية تسمى "احتيال الطوارئ العائلية"، يتظاهر المحتال بأنه قريب يمر بأزمة طارئة، مثل الاعتقال أو السجن أو حادث سيارة أو حاجة طبية، ويطلب أموال بشكل عاجل.
ويستغل المحتال المشاعر، ويستخدم تقنيات متطورة من أجل إقناع الضحية التي تتصرف تحت الضغط العاطفي والزمني دون تفكير، وفي قضية شهيرة، تلقت شارون برايتويل مكالمة من رقم يشبه رقم ابنتها، وسمعت صوتا يبكي يدعي أنه ابنتها ويقول إنها تسببت في حادث سيارة أصابت فيه امرأة حامل، وأنها الآن رهن الاعتقال وتحتاج إلى كفالة.
وتحدث محتال آخر انتحل صفة محام وطالبها بمبلغ 15 ألف دولار ككفالة نقدية، وبعد دفعه اكتشفت شارون الخدعة وأن ابنتها بخير، وأن الصوت مستنسخ بالذكاء الاصطناعي، وتشمل الحالات الأخرى رسائل صوتية تطلب تحويلات عاجلة عبر تطبيقات مثل "باي بال" أو "فينمو"، مع التركيز على الضغط النفسي.
ويشير استطلاع "مكافي" إلى أن أغلب الناس قد يردون على رسالة صوتية مزيفة من قريب يطلب مال، وخاصة في سيناريوهات الحوادث أو السرقة، ويعد كبار السن هم الأكثر عرضة، حيث تجاوزت خسائرهم من الجرائم الإلكترونية نحو 4.8 مليارات دولار في 2024، ومن المتوقع ارتفاعها مع انتشار الذكاء الاصطناعي.
وسجل تقرير "مكتب التحقيقات الفيدرالي" لعام 2025 أكثر من 22 ألف شكوى متعلقة بالذكاء الاصطناعي، بينها ملايين الدولارات من عمليات "احتيال الطوارئ العائلية" التي تستخدم الأصوات المزيفة لعائلات في أزمة.
لم تتوقف الهجمات عند الأفراد، وإنما انتقلت لتهدد عصب الاقتصاد العالمي، ويشمل ذلك الواقعة الشهيرة التي هزت الأوساط المالية في هونغ كونغ، وكانت ضحيتها شركة الهندسة البريطانية العالمية "أروب".
وبدأت القصة برسالة بريد إلكتروني من المدير المالي المقيم في لندن يطلب تحويل مالي سري، وهو ما أثار شكوك الموظف في البداية كعملية تصيد تقليدية، وكان المحتالون قد أعدوا كمين بصري متطور، حيث دعي الموظف إلى اجتماع فيديو ليجد أمامه المدير المالي وعددا من الزملاء الذين يعرفهم جيدا.
ولكن ما لم يعرفه الموظف هو أن جميع الحاضرين في الاجتماع، باستثناءه هو، كانوا نسخ رقمية مولدة عبر التزييف العميق بالاعتماد على فيديوهات سابقة لاجتماعات الشركة، وتحت ضغط الأوامر المباشرة من المدير المالي في الفيديو، نفذ الموظف عمليات التحويل إلى حسابات بنكية مختلفة بقيمة إجمالية قدرها نحو 25.6 مليون دولار، ولم تكتشف عملية الاحتيال إلا بعد مدة عندما اتصل الموظف بالمكتب الرئيسي للاستفسار.
وكشفت هذه الحادثة عن حقيقة أن الفيديو لم يعد دليل على الوجود، وعدت مثالا بارزا على كيفية دمج التزييف العميق مع عمليات "اختراق البريد الإلكتروني للعمل" (BEC)، حيث أصبح الاحتيال تجربة بصرية وصوتية متكاملة.
وسجلت حالات مشابهة في شركات أخرى، مثل خسارة 220 ألف يورو في شركة طاقة بريطانية، أو قرابة 500 ألف دولار في شركة سنغافورية، ويستهدف المحتالون الشركات عبر عمليات احتيال مدعومة بالذكاء الاصطناعي، حيث ينتحلون شخصيات المدراء التنفيذيين من أجل طلب تغيير بيانات الدفع أو إجراء تحويلات سرية.
ويشير تقرير "مكتب التحقيقات الفيدرالي" إلى أن عمليات اختراق البريد الإلكتروني للعمل وحدها تسببت في خسائر تصل إلى 3 مليارات دولار في 2025، مع تزايد استخدام الصوت والفيديو المزيفين، وتجاوزت الخسائر العالمية لعمليات الاحتيال المعتمدة على التزييف العميق مئات الملايين، ومن المتوقع أن يصل الرقم إلى 40 مليار دولار بحلول 2027 وفقا لشركة "ديلويت".
مع كل فيديو وتسجيل صوتي وصور عالية الدقة تنشرها على منصات التواصل، فإنك تترك بصمة رقمية تمثل مواد خام لتدريب الذكاء الاصطناعي على إنشاء توأم رقمي يقلدك في الصوت والحركات والتعبيرات الوجهية.
وتبدأ عملية سرقة هويتك من خلال جمع البيانات من الحسابات العامة، وتزويد نماذج الذكاء الاصطناعي بهذه البيانات لتدريبها على نبرة الصوت وإيماءات الوجه وطريقة الكلام، الأمر الذي يسمح بإنتاج محتوى جديد – صوتي أو مرئي – يبدو حقيقيا.
ويستخدم المحتالون هذا النموذج في الابتزاز أو طلب قروض باسمك أو الوصول إلى حسابات بنكية إذا كانت أنظمة التحقق الصوتي ضعيفة، مما يعني أن نسختك الرقمية لم تعد ملكك وحدك، وإنما متاحة للبيع والاستغلال في أي وقت.
وفي بعض الحالات، يستخدم التوأم الرقمي في مكالمات فيديو مزيفة لإقناع زملاء أو شركاء بمعاملات مشبوهة.
من أجل مواجهة صيدليات التزييف العميق، تحتاج العائلة إلى اختيار عبارة سرية لا تذكر بشكل علني، وطلبها عند ورود أي مكالمة طارئة، مع عدم الوثوق بالصوت أو الصورة وحدهما والتحقق قبل إجراء أي تحويل مالي.
وينبغي تقليل مشاركة البيانات الصوتية والبصرية وجعل حسابات وسائل التواصل خاصة وتجنب نشر الفيديوهات الطويلة أو الرسائل الصوتية الواضحة مع استخدم فلاتر الخصوصية وأدوات إزالة البيانات من مواقع الوسطاء.
أما فيما يتعلق بالشركات، فإنه يجب التحقق عبر قناة مستقلة تماما من أي طلب مالي غير متوقع بافتراض أن أي طلب هو تهديد محتمل حتى لو كان من داخل الشبكة، وينبغي تدريب الموظفين بانتظام عبر إجراء محاكاة لمكالمات التزييف العميق من أجل أن تعتاد الأذن والعين على اكتشاف الاختلافات الدقيقة في النبرة أو الحركات غير الطبيعية مع الحد من المحتوى العام للتنفيذيين على الإنترنت ومراقبة الحسابات بحثا عن تسريبات.
كما يجب الاعتماد على تقنيات القياسات الحيوية الصوتية مع كشف الحيوية وأدوات كشف التزييف العميق في مكالمات الفيديو والمصادقة المتعددة العوامل دون الاعتماد على الصوت أو الفيديو وحدهما للمعاملات الحساسة.
وعلى المستوى العام، ينبغي على الشركات التقنية تطوير أدوات كشف جماعية للمحتوى المولد بالذكاء الاصطناعي، فيما تحتاج الحكومات إلى سن قوانين تجرم التزييف العميق وتعتبره نوعا من أنواع انتحال الشخصية، ويفرض قانون الذكاء الاصطناعي في الاتحاد الأوروبي التزامات الشفافية والوسم الإلزامي للمحتوى المزيف، بينما تقدم الولايات المتحدة مشاريع قوانين لمكافحة الاحتيال والمحتوى غير التوافقي.
ختاما، فإن صيدليات التزييف العميق تهز أسس الثقة في التواصل الرقمي وتجعل من الصعب التمييز بين الحقيقي والمزيف، مما يفتح الباب أمام خسائر مالية وعاطفية تطال العائلات والشركات على حد سواء.
ولكن نستطيع تحويل هذه التقنية إلى درع يحمينا عبر التوعية المستمرة والتحقق الدائم والاستثمار في التقنيات الدفاعية والسلوكيات الوقائية، خاصة مع تطور أدوات الكشف عن التزييف العميق بسرعة كبيرة باستخدام الذكاء الاصطناعي نفسه.







