اوبن كلو: هل يشعل ثورة الذكاء الاصطناعي ام يهدد الامن السيبراني؟

مع ظهور وكلاء الذكاء الاصطناعي القادرين على تنفيذ مهام معقدة، يبرز سؤال حول مستقبل هذه التقنية وتأثيرها على حياتنا، فبينما يرى البعض في ذلك خطوة نحو مستقبل أكثر تطورا، يثير صعود وكيل الذكاء الاصطناعي المفتوح "اوبن كلو" تساؤلات حول المخاطر الأمنية المحتملة.
بينما يرى بعض المطورين في هؤلاء الوكلاء نقلة نوعية في طريقة استخدام الذكاء الاصطناعي، يحذر خبراء الأمن السيبراني من أن قدرتها على الوصول إلى التطبيقات والملفات والأنظمة المحلية قد تفتح الباب أمام تحديات تتعلق بحماية البيانات والحوكمة التقنية.
وفي المنطقة العربية، يطرح انتشار هؤلاء الوكلاء تساؤلات حول مدى جاهزية المؤسسات للتعامل مع أنظمة تعمل بدرجة عالية من الاستقلالية.
برز "اوبن كلو" خلال الأشهر الأخيرة كأحد أكثر المشاريع إثارة للاهتمام في عالم الذكاء الاصطناعي، وبدأ المشروع الذي طوره المبرمج النمساوي بيتر شتاينبرغر لتمكين المطورين من إنشاء وكلاء يعملون مباشرة على أجهزة المستخدمين، لكنه سرعان ما جذب اهتمام المطورين والجمهور وشركات التكنولوجيا.
واطلق المشروع اول مرة في نوفمبر باسم "كلاود بوت" قبل أن يعاد تسميته إلى "مولت بوت" ثم "اوبن كلو"، وزاد الاهتمام به بعد انتقال مطوره شتاينبرغر للعمل مع "اوبن اي اي" بقيادة سام التمان، وهو ما اعتبره مراقبون مؤشرا على مرحلة جديدة في تطوير الوكلاء الأذكياء.
لكن هذه القدرة على العمل خارج بيئات السحابة التقليدية أثارت قلقا من وصول هؤلاء الوكلاء إلى الملفات والتطبيقات والبيانات المحلية، ما قد يفتح الباب أمام مخاطر الخصوصية وتسريب المعلومات الحساسة، إضافة إلى الطبيعة الاحتمالية لهذه الأنظمة التي تجعل التنبؤ الكامل بسلوكها صعبا.
وقال جاسم حجي رئيس جمعية الذكاء الاصطناعي ورئيس المجموعة الدولية للذكاء الاصطناعي في البحرين ان التحدي الأكبر عند استخدام وكلاء الذكاء الاصطناعي مثل "اوبن كلو" داخل المؤسسات يظهر عند ربطها بعدة أنظمة وخدمات رقمية في الوقت نفسه مثل البريد الإلكتروني والرسائل والمتصفح والملفات وواجهات برمجة التطبيقات.
واضاف ان هذا التكامل قد يفتح الباب أمام مخاطر مثل الوصول غير المقيد إلى الأنظمة الداخلية واحتمال تنفيذ أوامر غير مقصودة نتيجة أخطاء في تفسير التعليمات أو ما يعرف بظاهرة "هلوسة النماذج"، كما تظهر تحديات أخرى مرتبطة بإدارة الصلاحيات والهويات الرقمية عند ربط الوكيل بعدة خدمات أو قواعد بيانات.
واكد حجي ان هذه التحديات مهمة خاصة في المنطقة العربية حيث لا تزال المؤسسات تطور سياسات الحوكمة الخاصة بالذكاء الاصطناعي.
وقال في حديثه للجزيرة نت تحتاج الشركات اعتماد ضوابط تقنية واضحة قبل نشر هذه الأنظمة في بيئات العمل الفعلية مثل تشغيل الوكلاء في بيئات اختبار معزولة وتطبيق مبدأ أقل صلاحية في الوصول إلى الأنظمة واستخدام أنظمة مراقبة وتسجيل للأنشطة.
ويلفت حجي إلى أن الطبيعة الاحتمالية لأنظمة الذكاء الاصطناعي التوليدي قد تزيد من تعقيد إدارة البيانات الحساسة داخل المؤسسات، إذ تعتمد هذه النماذج على آليات إحصائية قد تنتج استجابات غير متوقعة، ما قد يؤدي في بعض الحالات إلى إدخال بيانات حساسة أو استرجاع معلومات غير مقصودة من أنظمة داخلية.
ولتقليل المخاطر ينصح حجي المؤسسات بتطبيق ضوابط مثل تصنيف البيانات قبل استخدامها في الأنظمة الذكية واستخدام تقنيات تقليل البيانات أو إخفائها، إضافة إلى تطبيق طبقات تحكم واضحة في الوصول إلى البيانات.
لا تقتصر التحديات على المؤسسات فمع تزايد إمكانية تشغيل وكلاء الذكاء الاصطناعي مباشرة على الأجهزة الشخصية قد يواجه المستخدمون مخاطر تتعلق بالخصوصية والأمن الرقمي.
ويحذر حجي من أن هؤلاء الوكلاء قد يطلبون صلاحيات للوصول إلى الملفات المحلية أو البريد الإلكتروني أو الحسابات السحابية، وهو ما قد يؤدي إلى كشف معلومات حساسة إذا لم تدر الأذونات بعناية.
كما يوصي بتفعيل المصادقة متعددة العوامل ومراجعة الأذونات بشكل دوري وتجنب ربط الوكلاء بحسابات تحتوي على بيانات حساسة ما لم يكن ذلك ضروريا.
مع توسع استخدام وكلاء الذكاء الاصطناعي داخل المؤسسات يبرز سؤال حول المسار الذي قد تتبعه الشركات العربية تطوير نماذج داخلية ام الاعتماد على الحلول العالمية؟
في هذا السياق يقول حسام الدين الأسود الرئيس التنفيذي لشركة ناشيونال كوانتوم وخبير تكنولوجيا المعلومات إن القرار يعتمد على طبيعة القطاع وحساسية البيانات.
ويشير إلى أن تطوير نماذج داخلية يتيح تدريب الأنظمة على السياقات الثقافية واللهجات العربية ويمنح المؤسسات "السيادة على البيانات" حيث تبقى البيانات الحساسة داخل البنية الداخلية للشركة.
ويرى أن تطوير نموذج داخلي يمنح الشركات سيطرة كاملة على بياناتها وهو أمر مهم للقطاعات الحساسة مثل البنوك والرعاية الصحية.
لكن هذا المسار برأيه يواجه تحديات مثل ندرة الكفاءات المتخصصة في تدريب النماذج اللغوية الكبيرة وصعوبة بناء قواعد بيانات تدريب عربية، إضافة إلى الحاجة لاستثمارات كبيرة في البنية الحاسوبية خصوصا وحدات معالجة الرسومات ما يعني تكاليف رأسمالية مرتفعة.
كما تتحمل المؤسسات مسؤولية حماية النماذج من هجمات مثل تسميم البيانات واستخراج النماذج.
في المقابل توفر النماذج العالمية وصولا سريعا إلى قدرات تقنية متقدمة دون بناء بنية تحتية خاصة، لكنها قد تخلق التبعية التقنية وارتفاع تكاليف استخدام واجهات البرمجة مع توسع الاستخدام.
ويرى الأسود أن الخيار الأكثر واقعية هو نهج هجين يجمع بين المسارين قائلا التوجه الأذكى هو استخدام النماذج العالمية للمهام العامة مثل التلخيص وصياغة الرسائل مع تخصيص نماذج مفتوحة المصدر مثل لاما أو فالكون عبر الضبط الدقيق للتعامل مع البيانات الحساسة.
لا تتوقف تحديات وكلاء الذكاء الاصطناعي عند الشركات بل تمتد إلى السياسات العامة والحكومات، ويرى الأسود أن الحكومات في الشرق الأوسط مطالبة بإيجاد توازن بين دعم الابتكار وحماية المجتمع مشيرا إلى أهمية الاستثمار في البنية التحتية الرقمية السيادية مثل مراكز البيانات والحوسبة السحابية المحلية لدعم تطوير نماذج ذكاء اصطناعي داخل المنطقة.
كما يدعو إلى رقمنة وتنظيم المحتوى العربي الموثوق وتوفير قواعد بيانات مفتوحة للمطورين بما يساعد على تدريب نماذج أكثر ملاءمة للسياق اللغوي والثقافي في المنطقة.
ويضيف ان التشريعات المستقبلية يجب أن تعالج قضايا مثل توطين البيانات وشفافية استخدام الذكاء الاصطناعي مع وضع أطر واضحة لما يعرف بـ "المسؤولية الخوارزمية" لتحديد الجهة المسؤولة عندما تتسبب الأنظمة الذكية في أضرار.
في نهاية المطاف يبقى التعامل مع وكلاء الذكاء الاصطناعي مثل "اوبن كلو" اختبارا لموازنة الابتكار والأمان يتطلب سياسات واضحة وحوكمة دقيقة لضمان استخدام مسؤول وآمن لهذه التكنولوجيا.







