استكشاف الفروق الدقيقة للبيانات والذكاء الاصطناعي في المملكة العربية السعودية
ولإيجاد حل لهذه المشكلة، يتوجب علينا أولاً فهم الجوانب الفريدة لتبني الذكاء الاصطناعي في المملكة العربية السعودية مقارنةً ببقية دول العالم. كانت المملكة بشكل عام أبطأ في تبني هذه التقنيات، حيث وجدت دراسة حديثة صادرة عن شركة IDC، تُسلّط الضوء على هذه المشكلة، أن 28% فقط من الشركات السعودية العامة والخاصة بدأت باختبار الذكاء الاصطناعي، وأفاد 88% منها بتحسن في أداء أعمالها. ومع ذلك، وعلى الرغم من فوائد التكامل التي يأتي بها الذكاء الاصطناعي، لا تزال العديد من الشركات مترددة بتبنيه على نطاق واسع اليوم بسبب عدم وضوح القوانين.من جهة أخرى، أدى نقص الخبرة باستخدام التقنيات الناشئة إلى زيادة هذا التردد، لا سيما في ما يتعلق بالسحابة. كما تميل الشركات السعودية إلى اتباع نهج أكثر استراتيجية في تخطيطها مع التركيز على المدى البعيد، مما يؤدّي إلى اتباع منهج مدروس أكثر. كما تُبدي الشركات الرقمية الناشئة استعداداً للمخاطرة أكثر باستخدام تقنيات السحابة خارج المملكة، لكنها تواجه تحديات في التوسع لخدمة العملاء المحليين أو الحكوميين. ويتفاقم هذا الوضع بسبب عدم الوضوح في تحديد المخاطر وتحليلها والتخفيف منها، مما يؤدي إلى المزيد من العقبات في تبني الذكاء الاصطناعي.
اغتنام الفرص بعقلية جديدة في ما يخص "المخاطر"
تستطيع الشركات السعودية التغلب على هذه التحديات واغتنام الفرص الجديدة عبر إعادة النظر في كيفية تحديد المخاطر. وستتمكن الشركات من خلال تحديد المخاطر المتعلقة بحالات استخدام الذكاء الاصطناعي لديها، من تجنب فرق الأمن للفترات الطويلة في تحليل كافة أسوأ السيناريوهات المحتملة.
تلعب Databricks دوراً هاماً في هذا الصدد من خلال حل أمن الذكاء الاصطناعي Databricks AI Security Framework. ويُرسي الإطار والمستند التقني نهجاً لإدارة مخاطر أمن وحوكمة الذكاء الاصطناعي. وطُوّر هذا الإطار بالتعاون مع خبراء هذا المجال، ويستند إلى المعايير الحالية لتوفير إدارة المخاطر الفعالة لعمليات نشر الذكاء الاصطناعي.
وفي المملكة العربية السعودية، كما في أي مكان آخر، لا يقتصر وجود أي شركة على برنامج أمني قوي فحسب، بل يُعدّ الأمن وظيفةً تدعم رسالة الشركة واستراتيجيتها. وإذا تمسّك الفريق الأمني والقانوني بموقفهما الراسخ للحفاظ على وضع الشركة الراهن، ستتخلف الشركة عن غيرها في نهاية المطاف.
تواجه فرق الأمن والحوكمة والقانون في المملكة العربية السعودية تحدياتٍ كبيرة، فالقائمة المتزايدة من الثغرات الأمنية التي يجب معالجتها والهجمات التي يجب التصدي لها والمساحة التي تتطلب حمايتها قد تكون مرهقة. لذا، يتعيّن على الشركات تحديد المخاطر المتعلقة بحالات استخدام الذكاء الاصطناعي الخاصة بها، بدلاً من الانغماس في تحليل أسوأ السيناريوهات المحتملة.
ينبغي على داعمي استخدام الذكاء الاصطناعي الذين ذكرتهم منذ قليل التعاون مع المترددين في استخدامه لوضع خطة تُركّز على تلبية متطلبات العملاء. وينبغي أن يشمل ذلك تحديد أهدافها على مستوى الخدمة واتباع الاتصالات الاستباقية التي تتماشى مع أولويات العمل لتقييم وتقديم الإرشادات حول كيفية حصول الشركة على الموافقة اللازمة على حالات استخدام الذكاء الاصطناعي.
إنّ تلبية متطلبات العملاء ومواءمة خدماتكم مع رسالتهم ورؤيتهم تجعلهم أكثر تقبلاً لتبني الذكاء الاصطناعي. على سبيل المثال، إذا تواصل مسؤولوا أمن المعلومات مع كبار الأطباء في مستشفى بالمملكة العربية السعودية لإقناعهم بتطبيق الضوابط لتقنيات معينة بهدف منع اختراق البيانات، من المرجح أن يستغربوا من تلك الاقتراحات. وبدلاً من ذلك، ستكون صياغة الحوار بطريقة تراعي مصالحهم طريقة أكثر فعالية لإقناعهم.
ينبغي على الشركات أن تبدأ على نطاق صغير مع استخدامات محددة مثل دعم العملاء والبحث والتعاون وتطوير البرمجيات. وإنّ إشراك الشركة منذ البداية وتكليفها بتحديد المشكلة، سيساعد فرق التقنية والبيانات على تحقيق التوافق المستمر.
حتى القطاعات الخاضعة لرقابة شديدة، مثل الرعاية الصحية والخدمات المالية في المملكة العربية السعودية, تجدقيمة كبيرة في تبني الذكاء الاصطناعي، حققت الشركات بالفعل نجاحاً باهراً في أكثر التجارب جرأةً من خلال الجمع بين نهجيّ "دعم التبني" و"التردد في التبني"، ومن مصلحة أي شركة أن يعمل الداعمون والمترددون بتناغم لتعزيز ذكاء البيانات لدى الشركة وتحقيق نتائج نجاح ملموسة.
أخبار متعلقة :