This is the Trace Id: 87f4710d94f006525bf02b4e295dcf46

 

Cyber Pulse: تقرير أمان قائم على الذكاء الاصطناعي

تشير أحدث بيانات تتبع الاستخدام والبحوث من Microsoft إلى أن العديد من المؤسسات تتبنى عوامل الذكاء الاصطناعي. حان الوقت الآن للقادة لتطبيق الرصد، والحوكمة، والأمان.

العدد 1: المقدمة

تعيد المؤسسات الرائدة تعريف طريقة إنجاز العمل، حيث يعمل البشر والعوامل جنبًا إلى جنب لتعزيز الطموح البشري. تشير أحدث بيانات Microsoft إلى نمو فرق البشر والعوامل وتبنيها عالميًا.

يتوسع اعتماد عوامل الذكاء الاصطناعي بسرعة تفوق قدرة بعض الشركات على رصدهم، وتلك الفجوة في الرؤية تمثل خطرًا على الأعمال. تحتاج المؤسسات بشكل عاجل إلى حوكمة وأمان فعالين لتبني العوامل بأمان، وتعزيز الابتكار، وتقليل المخاطر. مثل المستخدمين من البشر، يحتاج عوامل الذكاء الاصطناعي إلى الحماية عبر الرصد، والحوكمة، وأمان قوي باستخدام مبادئ الثقة المعدومة. المؤسسات التي ستنجح في المرحلة القادمة من تبني الذكاء الاصطناعي ستكون تلك تتحرك بسرعة وتجمع فرق الأعمال، وتكنولوجيا المعلومات، والأمان، والمطورين لرصد تحولهم الرقمي وحوكمته وتأمينه.

في نظام Microsoft البيئي، يبني العملاء العوامل وينشرونهم على كل منصة رئيسية، من Fabric وFoundry إلىCopilot Studio و"منشئ العامل"، مما يعكس تحولًا واسعًا نحو أتمتة مدعومة بالذكاء الاصطناعي في سير العمل.

بناء العوامل لم يعد مقتصرًا على الأدوار التقنية؛ اليوم، يقوم الموظفون في مختلف المناصب بإنشاء العوامل واستخدامهم في عملهم اليومي. في الواقع، تُظهر بيانات Microsoft أن أكثر من 80% من شركة Fortune 500 تنشر عوامل نشيطين مبنيين باستخدام أدوات منخفضة البرمجة / بلا برمجة.1 مع توسع استخدام العوامل وتضاعف فرص التحول، حان الوقت لوضع عناصر التحكم الأساسية.

تمامًا كما هو الحال مع الموظفين من البشر، تعني الثقة المعدومة للعوامل :
 

  • الوصول بأقل امتيازات: منح كل مستخدم، أو عامل ذكاء اصطناعي، أو نظام ما يحتاجه فقط، لا أكثر.

  • التحقق الصريح من الصحة: تأكيد هوية من يطلب الوصول دائمًا باستخدام الهوية، وحالة الجهاز، والموقع، ومستوى المخاطرة.

  • افتراض إمكانية الاختراق: تصميم الأنظمة مع توقع أن المهاجمين قد يخترقونها.

رسم بياني يوضح أن أكثر من 80% من شركات Fortune 500 تعتمد على أدوات الوكلاء منخفضة الكود النشطة مثل Ask Copilot

توسع سريع لعوامل الذكاء الاصطناعي عبر جميع المناطق والصناعات

يتسارع تبني العوامل عبر جميع المناطق العالمية، من أوروبا والشرق الأوسط وأفريقيا إلى الأمريكتين وآسيا.2
 مخطط عمودي يبرز التوزيع الإقليمي: أوروبا والشرق الأوسط وأفريقيا 42%، الولايات المتحدة 29%، آسيا 19%، والأمريكتان 10%.
تشهد Microsoft نموًا مستمرًا في عدد العوامل عبر مختلف الصناعات. الخدمات المالية، والتصنيع، والبيع بالتجزئة تتصدر تبني العوامل. تشكل الخدمات المالية، بما في ذلك البنوك، وأسواق رأس المال، والتأمين، حوالي 11% من جميع العوامل النشطة عالميًا.2 تمثل الصناعة التحويلية 13% من استخدام العوامل العالمي، مع تبني واسع في المصانع، وسلاسل التوريد، وعمليات الطاقة.2 يمثل قطاع البيع بالتجزئة 9%، حيث يتم استخدام العوامل لتحسين تجربة العملاء، وإدارة المخزون، والعمليات الأمامية.2

التحدي: بعض هؤلاء العوامل معتمدون من تكنولوجيا المعلومات، بينما البعض الآخر غير معتمدين. بعض هؤلاء العوامل آمنون، والبعض الآخر ليسوا كذلك.
دوائر متداخلة توضح توزيع القطاعات الصناعية: البرمجيات والتقنية 16%، التصنيع 13%، الخدمات المالية 11%، والتجزئة 9%.

خطر العوامل المزدوجين

النشر السريع للعوامل قد يتجاوز عناصر التحكم في الأمان والامتثال، مما يزيد من خطر ظهور الذكاء الاصطناعي الظلي. قد يستغل المهاجمون وصول العوامل وامتيازاتهم، محولين إياهم إلى "عوامل مزدوجين" غير مقصودين. مثل الموظفين البشر، يمكن أن يصبح العامل الذي يمتلك صلاحيات مفرطة أو تعليمات خاطئة ثغرة أمنية.

تهديد استغلال العوامل المزدوجين عند تركهم بدون إدارة، أو منحهم أذونات خاطئة، أو التلاعب بهم عبر مدخلات غير موثوقة، ليس مجرد خطر نظري. مؤخرًا، كشف فريق Microsoft Defender عن حملة احتيالية استغل فيها عدة مهاجمين تقنية هجوم ذكاء اصطناعي يُعرف "بتسمم الذاكرة" للتلاعب بذاكرة مساعدي الذكاء الاصطناعي بشكل مستمر، مما يؤثر بهدوء على الردود المستقبلية ويضعف الثقة في دقة النظام.

في بحث مستقل وآمن في بيئة اختبار أجراه فريق AI Red في Microsoft، وثق الباحثون كيف تم تضليل العوامل عبر عناصر واجهة خادعة، مثل اتباع تعليمات ضارة مضمنة في المحتوى اليومي. كما اكتشف "فريق Red" كيف يمكن توجيه تفكير العوامل بشكل خفي من خلال تلاعب في صياغة المهام. تُبرز هذه النتائج أهمية أن تمتلك المؤسسات رصدًا وإدارة شاملة لجميع العوامل المتصلين بمؤسستهم، لضمان فرض عناصر التحكم مركزيًا وإدارة المخاطر بشكل متكامل.
تشير دراسة استقصائية لعام 2025 إلى أن 29% من الموظفين يعتمدون على وكلاء الذكاء الاصطناعي غير المعتمدين لأداء مهام العمل.
وفقًا لمؤشر أمان البيانات من Microsoft، تقوم نسبة 47% من المؤسسات بالإبلاغ أنها تطبق عناصر التحكم في الأمان المحددة "للذكاء الاصطناعي التوليدي"،3 مما يفتح فرصة للمؤسسات للحصول على رؤية واضحة وحاسمة تضمن تبني آمن للذكاء الاصطناعي. والأهم من ذلك، أظهر مسح دولي شمل أكثر من 1700 متخصص في أمان البيانات، أجرته Microsoft بالتعاون مع مجموعة Hypothesis، أن 29% من الموظفين يلجؤون بالفعل إلى عوامل ذكاء اصطناعي غير معتمدين لأداء مهام العمل.4
مخطط دائري يبرز أن 47% فقط من المؤسسات تعتمد ضوابط أمنية لاستخدام الذكاء الاصطناعي التوليدي.

مع تسارع وتيرة التبني، كم عدد القادة يدركون المخاطر الكامنة وراء ذلك؟ وكم من القادة يمتلكون رؤية واضحة وشاملة حول عدد العوامل العاملين في مؤسساتهم؟ العوامل غير الخاضعين للإشراف أو الحوكمة قد يزيدون من المخاطر داخل المؤسسة، مهددين أمنها، واستمرارية أعمالها، وسمعتها، وكل ذلك يقع على عاتق CISO وC-suite. هذه هي جوهر معضلة مخاطر الأمن السيبراني. يجلب عوامل الذكاء الاصطناعي فرصًا جديدة إلى مكان العمل، ويصبحون جزءًا لا يتجزأ من العمليات الداخلية. لكن السلوكيات المحفوفة بالمخاطر لهؤلاء العوامل قد تضخم التهديدات الداخلية وتخلق أنماط فشل جديدة للمؤسسات غير المستعدة لإدارتها.

 

لقد وصلنا إلى طبيعة الذكاء الاصطناعي المزدوجة: ابتكار استثنائي مصحوب بمخاطر غير مسبوقة.

تحقيق أقصى استفادة من عوامل الذكاء الاصطناعي لديك

تستغل الشركات الرائدة موجة الذكاء الاصطناعي لتحديث حوكمة البيانات، وتقليل التعرض غير الضروري للمعلومات، ونشر عناصر تحكم شاملة على مستوى المؤسسة. ويتوافق ذلك مع تحول ثقافي جوهري: فبينما يمتلك قادة الأعمال استراتيجية الذكاء الاصطناعي، أصبحت فرق تكنولوجيا المعلومات والأمن شركاء حقيقيين في الرصد، والحوكمة، والتجارب الآمنة. بالنسبة لهذه المؤسسات، لا يُعد تأمين العوامل قيدًا، بل ميزة تنافسية حقيقية، مبنية على معاملة عوامل الذكاء الاصطناعي كبشر وتطبيق نفس مبادئ "الثقة المعدومة".

يبدأ الأمر بالرصد، حيث لا يمكنك حماية ما لا تراه، ولا يمكنك إدارة ما لا تفهمه. الرصد يعني وجود وحدة التحكم متكاملة عبر جميع مستويات المؤسسة (فرق تكنولوجيا المعلومات، والأمن، والمطورين، والذكاء الاصطناعي) لفهم:

  • ما العوامل الموجودة
     

  • من يملكهم
     

  • ما هي الأنظمة والبيانات التي يتعاملون معها
     

  • كيف يتصرفون


 

يشمل الرصد خمسة مجالات أساسية:

  • يعمل سجل مركزي كمصدر واحد لتقصي الحقائق لجميع العوامل عبر المؤسسة، سواء المعتمدين، أو من طرف خارجي، أو العوامل الظليين الناشئين. يساعد هذا المخزون في منع انتشار العوامل غير المنضبط، ويعزز المساءلة، ويدعم الاكتشاف، مع تمكين تقييد العوامل غير المعتمدين أو عزلهم عند الحاجة.
  • يتم حوكمة كل عامل باستخدام نفس عناصر التحكم في الوصول المعتمدة على الهوية والسياسات التي تُطبق على المستخدمين البشر والتطبيقات. تضمن الأذونات الأقل امتيازًا والمطبقة بشكل صارم أن يتمكن العوامل من الوصول فقط إلى البيانات، والأنظمة، ومهام سير العمل الضرورية لأداء مهامهم، لا أكثر ولا أقل.
  • توفر لوحات المعلومات وبيانات تتبع الاستخدام رؤية واضحة حول كيفية تفاعل العوامل مع الأشخاص، والبيانات، والأنظمة. يمكن للقادة تتبع أماكن عمل العوامل، وفهم التبعيات، ومراقبة السلوك والتأثير، مما يدعم الكشف السريع عن سوء الاستخدام، أو الانحراف، أو المخاطر الناشئة.
  • يعمل العوامل عبر منصات Microsoft، وإطارات المصدر المفتوح، وأنظمة الطرف الخارجي البيئية ضمن نموذج حوكمة متسق. تتيح إمكانية التشغيل التفاعلي للعوامل التعاون مع الأشخاص والعوامل الآخرين عبر مهام سير العمل، مع الحفاظ على إدارتهم ضمن نفس عناصر التحكم في المؤسسة.
  • تقوم الحمايات المدمجة بحماية العوامل من سوء الاستخدام الداخلي والتهديدات الخارجية. تساعد إشارات الأمان، وفرض السياسات، والأدوات المتكاملة المؤسسات على اكتشاف العوامل المُخترقين أو غير المتوافقين مبكرًا والاستجابة بسرعة، قبل أن تتصاعد المشكلات إلى أضرار تجارية أو تنظيمية أو سمعة.

سد الفجوة: قائمة اختيار لحوكمة الذكاء الاصطناعي وأمانه

الطريقة المثلى للحد من مخاطر الذكاء الاصطناعي واضحة: عامل عوامل الذكاء الاصطناعي بنفس الصرامة التي تعامل بها أي موظف أو حساب خدمة برمجية. إليك سبع نقاط أساسية في قائمة الاختيار الخاصة بك.
  • وثق هدف كل عامل وامنحه إمكانية الوصول إلى الموارد التي يحتاجها فقط. لا تمنح امتيازات واسعة النطاق.
  • طبق قواعد حماية البيانات على قنوات الذكاء الاصطناعي. حافظ على سجلات التدقيق وضع علامات على المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي.
  • وفر بدائل آمنة للحد من الذكاء الاصطناعي الظلي. احظر التطبيقات غير المصرح بها.
  • قم بتحديث كتيبات "استمرارية الأعمال" لتشمل سيناريوهات الذكاء الاصطناعي. نفذ تمارين محاكاة وراقب مقاييس الرصد عبر مستويات الهويات، والبيانات، والتهديد.
  • ابدأ الآن في بناء حوكمة الذكاء الاصطناعي وتنظيمه الذاتي، قم بتوثيق بيانات التدريب، وتقييم التحيز، وإنشاء إشراف بشري متكامل عبر الجوانب القانونية والبيانات والأمن، لضمان أن يكون الامتثال التنظيمي جزءًا أساسيًا وليس إضافة لاحقة.
  • ارتقِ بإدارة مخاطر الذكاء الاصطناعي إلى مستوى المؤسسة، من خلال تأسيس مسؤولية تنفيذية واضحة، ومؤشرات أداء قابلة للقياس، ورؤية على مستوى مجلس الإدارة إلى جانب المخاطر المالية والتشغيلية.
  • قم بتدريب الموظفين على الاستخدام الآمن للذكاء الاصطناعي. عزز الشفافية والتعاون.

المنظمات التي تحقق النجاح مع عوامل الذكاء الاصطناعي هي التي تضع الرصد، الحوكمة، والأمن في صلب أولوياتها. يتطلب النجاح تعاونًا متكاملًا بين جميع الفرق ورصدًا دقيقًا لعوامل الذكاء الاصطناعي على جميع مستويات المؤسسات: محترفو تكنولوجيا المعلومات، وفرق الأمن، وفرق الذكاء الاصطناعي، والمطورون، مع إمكانية الإدارة والمراقبة عبر منصة تحكم مركزية موحدة.

Agent 365 هو وحدة التحكم الموحدة من Microsoft لإدارة عوامل الذكاء الاصطناعي عبر المؤسسة. يقدم نظامًا مركزيًا بمستوى مؤسسي لتسجيل عوامل الذكاء الاصطناعي وحوكمتهم، وتأمينهم، ورصدهم، وتشغيلهم، سواء تم تطويرهم على منصات Microsoft، أو أطر مفتوحة المصدر، أو أنظمة طرف خارجي. لمزيد من المعلومات حول منتجات Microsoft وخدماتها التي تعزز أمان الذكاء الاصطناعي والعوامل، تفضل بزيارة هنا.
بطاقات موارد "الأمان من Microsoft" تعرض إرشادات متخصصة لتطبيقات الذكاء الاصطناعي، وحوكمة الذكاء الاصطناعي، وامتثال الذكاء الاصطناعي، مع خلفية زرقاء
إرشادات تأمين الذكاء الاصطناعي

إرشادات Microsoft لتأمين المؤسسات التي تعمل بالذكاء الاصطناعي

احصل على إرشادات متخصصة لبناء أساس قوي للذكاء الاصطناعي، تشمل كيفية حوكمة تطبيقات الذكاء الاصطناعي وتأمينها، وتساعد في الحفاظ على الامتثال.

موارد إضافية

شخص يعمل على حاسوب محمول في مساحة عمل مشتركة بينما يتابع المعلومات عبر هاتف ذكي

مؤشر أمان البيانات من Microsoft

يمكنك الحصول على تحليلات حول كيف يعيد الذكاء الاصطناعي التوليدي تشكيل أمن البيانات.
مقدم يقف على المسرح مع تعليقات على الشاشة توضح فهم المخاطر، وتطبيق عناصر التحكم المناسبة، والقياس، والمراقبة

تسريع الفرصة باستخدام الذكاء الاصطناعي الموثوق

استمع إلى قادة Microsoft وهم يشاركون استراتيجيات عملية لبناء الثقة في كل مرحلة من رحلتك مع الذكاء الاصطناعي.
أيقونة باللونين الأزرق والأبيض تُظهر ورقة داخل ظرف مع كلمة "جديد".

الحصول على ملخص CISO

ابق على اطلاع دائم بأفكار الخبراء وتوجهات المجال وأبحاث الأمان في سلسلة البريد الإلكتروني هذه التي تُرسل كل شهرين.
  1. [1]
    استنادًا إلى بيانات تتبع الاستخدام الخاصة بـ Microsoft التي تقيس العوامل المبنيين باستخدام Microsoft Copilot Studio أو "منشئ العامل من Microsoft" والذين تم استخدامهم خلال آخر 28 يومًا من نوفمبر 2025.
  2. [2]
    تم إنشاء "مقاييس العوامل الصناعية والإقليمية" باستخدام بيانات تتبع الاستخدام الخاصة بـ Microsoft التي تقيس العوامل المبنيين باستخدام Microsoft Copilot Studio أو "منشئ العامل من Microsoft" والذين تم استخدامهم خلال آخر 28 يومًا من نوفمبر 2025.
  3. [3]
    مسح متعدد الجنسيات تم إجراؤه في يوليو 2025 شمل أكثر من 1700 متخصص في أمان البيانات، بتكليف من Microsoft ومنفذ من قبل "مجموعة Hypothesis"
  4. [4]

    مؤشر أمان بيانات Microsoft لعام 2026: توحيد حماية البيانات وابتكار الذكاء الاصطناعي، "الأمان من Microsoft"، 2026

     

    المنهجية:

     

    تم إنشاء "مقاييس العوامل الصناعية والإقليمية" باستخدام بيانات تتبع الاستخدام الخاصة بـ Microsoft التي تقيس العوامل المبنيين باستخدام Microsoft Copilot Studio أو "منشئ العامل من Microsoft" والذين تم استخدامهم الـ 28 يومًا الماضيين من نوفمبر 2025.

     

    مؤشر أمان البيانات لعام 2026:

     

    تم إجراء مسح عبر الإنترنت متعدد الجنسيات لمدة 25 دقيقة من 16 يوليو إلى 11 أغسطس 2025، شمل 1725 قائدًا في أمان البيانات.

     

    تركزت الأسئلة على مشهد أمان البيانات، وحوادث أمان البيانات، وتأمين استخدام الموظفين "للذكاء الاصطناعي التوليدي"، واستخدام "الذكاء الاصطناعي التوليدي" في برامج أمان البيانات، مع إبراز المقارنات مع عام 2024.

     

    تم إجراء مقابلات معمقة لمدة ساعة مع 10 من قادة أمان البيانات في الولايات المتحدة والمملكة المتحدة، بهدف جمع قصص حول كيفية تعاملهم مع أمان البيانات داخل مؤسساتهم.

     

    التعريفات:

     

    العوامل النشطة هم 1) من تم نشرهم في بيئة الإنتاج، و2) الذين شهدوا "نشاطًا فعليًا" خلال الـ 28 يومًا الماضية.

     

    "النشاط الفعلي" يُعرّف بأنه تفاعل واحد أو أكثر مع المستخدم (العوامل المساعد) أو تنفيذ واحد أو أكثر بشكل مستقل (العوامل المستقلة).

متابعة الأمان من Microsoft