الخميس 20 نوفمبر 2025 03:39 مـ
بلدنا نيوز الاقتصادي

اقتصاد على مدار الساعة

  • إعلان كايرو
  • مجموعة إى فاينانس للاستثمارات المالية والرقمية
  • تمويل المشروعات
  • أصل الانترنت
  • سامسونج 2025
  • بانر البنك الزراعى يوليو
التكنولوجيا

” جارتنر ” : 40% من المؤسسات تتعرض لحوادث أمنيةبحلول عام 2030

بلدنا نيوز الاقتصادي

كشفت شركة جارتنر، المتخصصة في تحليل معلومات الأعمال والتقنيات الحديثة، عن نقاط ضعف حرجة ناجمة عن مخاطر مهملة وعواقب غير مقصودة نتيجة تبني تقنيات الذكاء الاصطناعي التوليدي.

ودعت الشركة مديري تكنولوجيا المعلومات إلى التعامل مع هذه التحديات الخفية بشكل استباقي لضمان تحقيق القيمة المنشودة من تطبيقات الذكاء الاصطناعي التوليدي، وتفادي فشل المشاريع القائمة عليها.

وقال أرون شاندراسيكاران، نائب الرئيس للأبحاث في "جارتنر": "تتطور تقنيات وأساليب الذكاء الاصطناعي التوليدي بوتيرة غير مسبوقة، وبشكل يواكب التفاعل الواسع الذي تشهده في الأوساط التقنية، ما يجعل من الصعب على مسؤولي تكنولوجيا المعلومات التعامل بمرونة مع هذا المشهد الحيوي والمتغير باستمرار".

وبينما تركز المؤسسات عادة على التحديات المباشرة المرتبطة بالذكاء الاصطناعي التوليدي، مثل تحقيق القيمة للأعمال، والأمن، وجاهزية البيانات، فإنها كثيراً ما تهمل الجوانب الخفية التي قد تشكل مخاطر مؤثرة على المدى الطويل، لكونها نتائج ثانوية يصعب توقعها مسبقاً. وتشمل هذه المخاطر ظواهر مثل "الاستخدام غير المصرح به للذكاء الاصطناعي"، والديون التقنية، وتراجع المهارات، ومتطلبات سيادة البيانات، ومشاكل التوافق التشغيلي، والاعتماد على مورد واحد يصعب استبداله، وهي جميعها عوامل خفية قد تضعف فرص نجاح المؤسسات على المدى الطويل.



وتتوقع "جارتنر" أنه بحلول عام 2030 ستشكل هذه العوامل السلبية فارق واضح بين الشركات التي توسع من نطاق استخدام الذكاء الاصطناعي بأسلوب آمن واستراتيجي، وتلك التي تواجه قيود أو اضطرابات داخلية تعيق تقدمها.

ومن أجل الحفاظ على القدرة التنافسية والمرونة، ينبغي على قادة تكنولوجيا المعلومات معالجة التحديات الواضحة والمخاطر الخفية المرتبطة بتبني الجيل الجديد من الذكاء الاصطناعي التوليدي، مع التركيز على معالجة الجوانب الخفية التالية:

الانتشار المتسارع للاستخدام غير المصرح به للذكاء الاصطناعي


كشفت دراسة أجرتها شركة "جارتنر"، وشملت 302 من مسؤولي وقادة الأمن السيبراني خلال الفترة من مارس إلى مايو 2025، أن 69% من المؤسسات تشتبه في أن موظفيها يستخدمون أدوات ذكاء اصطناعي توليدي عامة غير مصرح بها، أو تمتلك أدلة تؤكد ذلك.



يمكن أن يؤدي الانتشار السريع لاستخدام أدوات الذكاء الاصطناعي غير المصرح بها إلى آثار ملموسة وغير مباشرة، مثل فقدان الملكية الفكرية، وتسريب البيانات، وارتفاع مستوى المخاطر الأمنية. وتتوقع "جارتنر" أنه بحلول عام 2030 ستتعرض أكثر من 40% من المؤسسات لحوادث أمنية أو مخالفات تتعلق بالامتثال نتيجة الاستخدام غير المصرح به لأدوات الذكاء الاصطناعي.



وقال شاندراسيكاران: "لمعالجة هذه المخاطر، ينبغي على مديري تكنولوجيا المعلومات وضع سياسات مؤسسية واضحة لاستخدام أدوات الذكاء الاصطناعي، وإجراء عمليات تدقيق دورية لاكتشاف استخدامات الذكاء الاصطناعي غير المصرح بها، ودمج تقييم مخاطر الذكاء الاصطناعي التوليدي ضمن عمليات تقييم برامج الخدمات السحابية (SaaS)".



الديون التقنية في مشاريع الذكاء الاصطناعي
تتوقع "جارتنر" أنه بحلول عام 2030 ستواجه 50% من المؤسسات تأخراً في تحديثات أنظمة الذكاء الاصطناعي، و/أو ارتفاعاً في تكاليف الصيانة، نتيجة تراكم الديون التقنية غير المدارة ضمن تطبيقات الذكاء الاصطناعي التوليدي.



وقال شاندراسيكاران: "تنظر الشركات بإيجابية إلى السرعة التي يتيحها الذكاء الاصطناعي التوليدي في تسليم المهام والمشاريع. ومع ذلك، فإن الكلفة العالية لصيانة أو إصلاح أو استبدال الأصول التي ينتجها الذكاء الاصطناعي، مثل الشيفرات البرمجية والمحتوى والتصاميم، قد تضعف العائد المتوقع على الاستثمار في هذه التقنيات. ومن خلال وضع معايير واضحة لمراجعة وتوثيق الأصول التي يتم توليدها بالذكاء الاصطناعي، وتتبع مؤشرات الديون التقنية ضمن لوحات متابعة تكنولوجيا المعلومات، يمكن للمؤسسات اتخاذ خطوات استباقية لتجنب الاضطرابات المكلفة مستقبلاً".



الطلب المتزايد على سيادة البيانات والذكاء الاصطناعي
تتوقع "جارتنر" أنه بحلول عام 2028 ستطبق 65% من الحكومات حول العالم متطلبات للسيادة التقنية بهدف تعزيز استقلاليتها وحماية أنظمتها من التدخلات التنظيمية العابرة للحدود.



يمكن أن تؤدي القيود التنظيمية المفروضة على مشاركة البيانات عبر الحدود إلى إبطاء وتيرة نشر حلول الذكاء الاصطناعي على مستوى المؤسسة، وزيادة التكلفة الإجمالية للملكية، وتحقيق نتائج أقل كفاءة من المتوقع.



ولمواجهة هذه التحديات، ينبغي على مديري تكنولوجيا المعلومات دمج مبادئ سيادة البيانات ضمن استراتيجيات الذكاء الاصطناعي منذ المراحل الأولى، من خلال إشراك الفرق القانونية وفرق الامتثال في وقت باكر، وإعطاء الأولوية للموردين الذين يلتزمون بمتطلبات سيادة البيانات والذكاء الاصطناعي الخاصة بهم.



تراجع المهارات البشرية
يمكن أن يؤدي الاعتماد المفرط على الذكاء الاصطناعي إلى تراجع الخبرات البشرية الأساسية، وضعف القدرة على اتخاذ القرار، وفقدان المعرفة الضمنية التي يصعب توثيقها أو استبدالها. ويحدث هذا التراجع بشكل تدريجي، وغالبا من دون أن يلاحظه أحد في البداية، ما يجعل مديري تكنولوجيا المعلومات لا يدركون حجم الخطر إلا عندما تواجه المؤسسة صعوبة في أداء مهامها من دون الذكاء الاصطناعي، أو عند تعرضه للفشل في المواقف الاستثنائية التي تتطلب فهماً بشرياً.



وقال شاندراسيكاران: "لتجنب الفقدان التدريجي للذاكرة المؤسسية وقدراتها، ينبغي على المؤسسات تحديد المجالات التي يعد فيها الحكم البشري والخبرة المتخصصة عنصرين أساسيين، وتصميم حلول الذكاء الاصطناعي بحيث تثري هذه المهارات وتكملها، لا أن تحل محلها".



الاعتماد على المنظومات التقنية المتكاملة وقابلية التشغيل البيني
غالباً ما تميل المؤسسات التي تسعى إلى الاستفادة من إمكانات الذكاء الاصطناعي التوليدي على نطاق واسع لاختيار مورد واحد لتحقيق السرعة وتبسيط العمليات. إلا أن هذا الاعتماد العميق قد يحد من مرونتها التقنية، ويضعف من قدرتها على التفاوض مستقبلاً بشأن الأسعار أو الشروط أو مستويات الخدمة.

ولا يدرك العديد من مديري تكنولوجيا المعلومات مدى ارتباط بياناتهم ونماذجهم وسير عملهم بواجهات برمجة التطبيقات، ومستودعات البيانات وأدوات المنصات الخاصة بالموردين.

وقال شاندراسيكاران: "إن إيلاء الأولوية للمعايير المفتوحة، وواجهات برمجة التطبيقات المفتوحة، والبنى المعيارية في تصميم منظومة الذكاء الاصطناعي، يساعد المؤسسات على تجنب الاعتماد المقيد على مورد واحد. كما ينبغي على مديري تكنولوجيا المعلومات اعتماد قابلية التشغيل البيني معيارًا أساسيًا في مشاريع الاختبار والتقييم الخاصة بالذكاء الاصطناعي التوليدي".

فودافون فايف جى بنك القاهرة 1
حوادث أمنية جارتنر الذكاء الاصطناعى التوليدى
تحويل الأرقام
efinance