Trace Id is missing
تخطي إلى المحتوى الرئيسي
Security Insider

التعامل مع المخاطر عبر الإنترنت وتعزيز الدفاعات في عصر الذكاء الاصطناعي

صورة لمجموعة من الأشخاص يقفون على قرميد

المشكلة 6 لـ Cyber Signals

كل يوم، تعمل أكثر من 2.5 مليار عملية اكتشاف مستندة إلى السحابة ومعتمدة على الذكاء الاصطناعي على حماية عملاء Microsoft.

يشهد عالم الأمان عبر الإنترنت اليوم تحولاً هائلاً. يأتي الذكاء الاصطناعي (AI) في طليعة هذا التغيير، ما يشكل تهديداً وفرصة في آن واحد. في حين أن الذكاء الاصطناعي لديه القدرة على تمكين المؤسسات من هزيمة الهجمات الإلكترونية بسرعة الآلة ودفع الابتكار والكفاءة في اكتشاف المخاطر والمطاردة والاستجابة للحوادث، يمكن للخصوم استخدام الذكاء الاصطناعي كجزء من مآثرهم. لم يكن تصميم الذكاء الاصطناعي ونشره واستخدامه بشكل آمن أكثر أهمية بالنسبة لنا من أي وقت مضى.

في Microsoft، نستكشف إمكانات الذكاء الاصطناعي لتعزيز إجراءات الأمان لدينا، وفتح وسائل حماية جديدة ومتقدمة، وبناء برامج أفضل. بفضل الذكاء الاصطناعي، لدينا القدرة على التكيف جنباً إلى جنب مع المخاطر المتطورة، واكتشاف الحالات الشاذة على الفور، والاستجابة بسرعة لتحييد المخاطر، وتصميم الدفاعات لتناسب احتياجات المؤسسة.

يمكن أن يساعدنا الذكاء الاصطناعي أيضاً في التغلب على أحد أكبر التحديات التي تواجه الصناعة. في مواجهة النقص العالمي في القوى العاملة في مجال الأمان عبر الإنترنت مع الحاجة إلى ما يقرب من 4 ملايين متخصص في مجال الأمان عبر الإنترنت في جميع أنحاء العالم، يتمتع الذكاء الاصطناعي بالقدرة على أن يكون أداة محورية لسد فجوة المواهب ولمساعدة المدافعين على أن يكونوا أكثر إنتاجية.

لقد رأينا بالفعل في إحدى الدراسات كيف يمكن لـ Copilot للأمان مساعدة محللي الأمن بغض النظر عن مستوى خبرتهم - في جميع المهام، كان المشاركون أكثر دقة بنسبة 44 بالمائة وأسرع بنسبة 26 بالمائة.

بينما نتطلع إلى تأمين المستقبل، يجب علينا أن نضمن أننا نوازن بين الاستعداد الآمن للذكاء الاصطناعي والاستفادة من فوائده، لأن الذكاء الاصطناعي لديه القدرة على رفع الإمكانات البشرية وحل بعض من أخطر التحديات التي تواجهنا.

سيتطلب المستقبل الأكثر أماناً مع الذكاء الاصطناعي تطورات أساسية في هندسة البرمجيات. وسوف يتطلب منا أن نفهم ونواجه التهديدات التي يحركها الذكاء الاصطناعي بوصفها مكونات أساسية لأي استراتيجية أمنية. ويجب علينا أن نعمل معاً لبناء تعاون عميق وشراكات عبر القطاعين العام والخاص لمكافحة ممثلي المخاطر السيئين.

كجزء من هذا الجهد ومبادرة المستقبل الآمن الخاصة بنا، تنشر OpenAI وMicrosoft معلومات استخباراتية جديدة توضح بالتفصيل محاولات ممثلي لاختبار مدى فائدة نماذج اللغة الطبيعية (LLMs) واستكشافها في تقنيات الهجوم.

نأمل أن تكون هذه المعلومات مفيدة عبر الصناعات حيث نعمل جميعاً من أجل مستقبل أكثر أماناً. لأننا في النهاية جميعنا مدافعون.

بريت أرسينولت، 
CVP، كبير مستشاري الأمان عبر الإنترنت

شاهد الموجز الرقمي الخاص من Cyber Signals حيث يجري فاسو جاكال، رئيس شركة Microsoft Security Business، مقابلات مع خبراء التحليل الذكي للمخاطر الأساسية بشأن المخاطر عبر الإنترنت في عصر الذكاء الاصطناعي، والطرق التي تستخدم بها Microsoft الذكاء الاصطناعي لتعزيز الأمان، وما يمكن أن تفعله المؤسسات للمساعدة في تعزيز الدفاعات.

المهاجمون يكتشفون تقنيات الذكاء الاصطناعي

لقد أصبح مشهد المخاطر عبر الإنترنت مليئاً بالتحديات بشكل متزايد حيث أصبح المهاجمون أكثر حماساً وتطوراً وأفضل موارد. يتطلع ممثلو المخاطر والمدافعون على حد سواء إلى الذكاء الاصطناعي، بما في ذلك نماذج اللغات الطبيعية لتعزيز إنتاجيتهم والاستفادة من المنصات التي يمكن الوصول إليها والتي يمكن أن تناسب أهدافهم وتقنيات الهجوم.

نظراً لمشهد المخاطر سريع التطور، نعلن اليوم عن مبادئ Microsoft التي توجه أعمالنا والتي تخفف من مخاطر ممثلي المخاطر بما في ذلك المخاطر المستمرة المتقدمة (APTs) والمتلاعبين المستمرين المتقدمين (APMs) وعصابات مجرمي الإنترنت، باستخدام أنظمة الذكاء الاصطناعي الأساسية وواجهات برمجة التطبيقات. تتضمن هذه المبادئ تحديد إجراءات واتخاذها ضد استخدام ممثلي المخاطر الخبيثون للذكاء الاصطناعي، وإخطار مقدمي خدمات الذكاء الاصطناعي الآخرين، والتعاون مع أصحاب المصلحة الآخرين، والشفافية.

على الرغم من اختلاف دوافع ممثلي المخاطر وتطورهم، يشتركون في مهام متماثلة عند نشر الهجمات. وتشمل هذه الاستطلاعات، مثل البحث عن صناعات الضحايا المحتملين ومواقعهم وعلاقاتهم؛ والترميز، بما في ذلك تحسين البرامج النصية وتطوير البرامج الضارة؛ والمساعدة في تعلم كل من اللغات البشرية والآلية واستخدامها.

تحاول الدول القومية الاستفادة من الذكاء الاصطناعي

بالتعاون مع OpenAI، نشارك التحليل الذكي للمخاطر الذي يظهر الخصوم التابعين للدولة المكتشفين - المتتبعين مثل Forest Blizzard وEmerald Sleet وCrimson Sandstorm وCharcoal Typhoon وSalmon Typhoon - باستخدام نماذج اللغة الطبيعية لتعزيز العمليات عبر الإنترنت.

الهدف من شراكة Microsoft البحثية مع OpenAI هو ضمان الاستخدام الآمن والمسؤول لتقنيات الذكاء الاصطناعي مثل ChatGPT، والحفاظ على أعلى معايير التطبيق الأخلاقي لحماية المجتمع من سوء الاستخدام المحتمل.

إعلام بريد إلكتروني: مستند للمراجعة والتوقيع في 7 نوفمبر 2023

استهدفت Forest Blizzard (STRONTIUM)، وهي جهة استخباراتية عسكرية روسية فعالة للغاية ومرتبطة بالمديرية الرئيسية لهيئة الأركان العامة للقوات المسلحة الروسية أو الوحدة 26165 GRU، الضحايا ذوي الاهتمام التكتيكي والاستراتيجية للحكومة الروسية. تمتد أنشطتها إلى مجموعة متنوعة من القطاعات بما في ذلك الدفاع، والنقل/اللوجستيات، والحكومة، والطاقة، والمنظمات غير الحكومية، وتكنولوجيا المعلومات

Emerald Sleet (Velvet Chollima) ممثل مخاطر كوري شمالي وجدت Microsoft أنه يستخدم تكتيكاً فريداً: انتحال شخصية المؤسسات الأكاديمية والمنظمات غير الحكومية ذات السمعة الطيبة لجذب الضحايا إلى الرد بنتائج تحليلات وتعليقات الخبراء حول السياسات الخارجية المتعلقة بكوريا الشمالية.

يتضمن استخدام Emerald Sleet لبرامج الماجستير في القانون إجراء أبحاث في مؤسسات الفكر والرأي والخبراء في كوريا الشمالية، بالإضافة إلى إنشاء محتوى من المحتمل استخدامه في حملات التصيد الاحتيالي. تفاعلت Emerald Sleet أيضاً مع نماذج اللغات الطبيعية لفهم الثغرات الأمنية المعروفة بشكل عام، واستكشاف المشكلات الفنية وإصلاحها، وللمساعدة في استخدام تقنيات الويب المختلفة.

Crimson Sandstorm (CURIUM) هو ممثل مخاطر إيراني يُعتقد أنه مرتبط بالحرس الثوري الإسلامي (IRGC). يتضمن استخدام نماذج اللغة الطبيعية طلبات للحصول على الدعم بشأن الانتحال بالهندسة الاجتماعية، والمساعدة في استكشاف الأخطاء وإصلاحها، وتطوير .NET، والطرق التي قد يتجنب بها المهاجم اكتشافه عندما يكون على جهاز مخترق.
Charcoal Typhoon (CHROMIUM) ممثل مخاطر تابع للصين ويركز في الغالب على تعقب المجموعات في تايوان وتايلاند ومنغوليا وماليزيا وفرنسا ونيبال والأفراد على مستوى العالم الذين يعارضون سياسات الصين. في العمليات الأخيرة، لوحظ أن Charcoal Typhoon يشرك نماذج اللغة الطبيعية للحصول على نتائج تحليلات حول البحث لفهم تقنيات ومنصات ونقاط ضعف محددة، ما يدل على المراحل الأولية لجمع المعلومات.

قيمت مجموعة أخرى مدعومة من الصين، وهي  Salmon Typhoon، فعالية استخدام نماذج اللغة الطبيعية طوال عام 2023 للحصول على معلومات حول مواضيع قد تكون حساسة، وأفراد بارزين، والجغرافيا السياسية الإقليمية، ونفوذ الولايات المتحدة، والشؤون الداخلية. ومن الممكن أن تعكس هذه المشاركة المبدئية مع حاملي شهادة الماجستير في القانون توسعاً في مجموعة أدوات جمع المعلومات الاستخبارية ومرحلة تجريبية في تقييم قدرات التقنيات الناشئة.

لم يحددبحثنا مع OpenAI الهجمات المهمة التي تستخدم حاملي شهادات الماجستير التي نراقبها من كثب.

تخذنا تدابير لتعطيل الأصول والحسابات المرتبطة بممثلي المخاطر هؤلاء وتشكيل حواجز الحماية وآليات السلامة حول نماذجنا.

مخاطر الذكاء الاصطناعي الناشئة الأخرى

الاحتيال المدعوم بالذكاء الاصطناعي مصدر قلق بالغ آخر. التركيب الصوتي مثال على ذلك، حيث يمكن لعينة صوتية مدتها ثلاث ثوانٍ تدريب النموذج ليبدو مثل أي شخص. حتى شيء غير ضار مثل تحية البريد الصوتي الخاص بك يمكن استخدامه للحصول على عينة كافية.

تعتمد الكثير من كيفية تفاعلنا مع بعضنا البعض وممارسة الأعمال على إثبات الهوية، مثل التعرف على صوت الشخص أو وجهه أو عنوان بريده الإلكتروني أو أسلوب كتابته.

من المهم أن نفهم كيف يستخدم الممثلون الخبيثون الذكاء الاصطناعي لتقويض أنظمة إثبات الهوية القديمة حتى نتمكن من معالجة حالات الاحتيال المعقدة وغيرها من مخاطر الانتحال بالهندسة الاجتماعية الناشئة التي تحجب الهويات.

يمكن أيضاً استخدام الذكاء الاصطناعي لمساعدة الشركات على تعطيل محاولات الاحتيال. على الرغم من أن Microsoft أوقفت تعاملنا مع شركة في البرازيل، فقد اكتشفت أنظمة الذكاء الاصطناعي لدينا محاولاتها لإعادة تشكيل نفسها من أجل الدخول مرة أخرى إلى نظامنا البيئي.

حاولت المجموعة باستمرار إخفاء معلوماتها وإخفاء جذور الملكية وإعادة الدخول، لكن اكتشافات الذكاء الاصطناعي لدينا استخدمت ما يقرب من اثنتي عشرة إشارة خطر للإبلاغ عن الشركة الاحتيالية وربطها بسلوك مشبوه تعرفت عليه مسبقاً، وبالتالي عرقلة محاولاتها.

تلتزم Microsoft بالذكاء الاصطناعي المسؤول الذي يقوده الإنسان والذي يتميز بالخصوصية والأمان، حيث يوفر البشر الإشراف وتقييم الطعون وتفسير النُهج واللوائح.

تثقيف الموظفين والجمهور حول المخاطر عبر الإنترنت:
  • استخدم نُهج الوصول المشروط: توفر هذه النُهج إرشادات واضحة ذاتية النشر لتعزيز وضع الأمان لديك والذي سيحمي المستأجرين تلقائياً بناءً على إشارات المخاطر والترخيص والاستخدام. تتميز نُهج الوصول المشروط بأنها قابلة للتخصيص وستتكيف مع المشهد المتغير للمخاطر عبر الإنترنت.
  • تدريب الموظفين وإعادة تدريبهم على أساليب الانتحال بالهندسة الاجتماعية: يمكنك تثقيف الموظفين والجمهور للتعرف على رسائل البريد الإلكتروني التصيدية، والتصيد الاحتيالي (البريد الصوتي)، والتصيد الاحتيالي عبر الرسائل النصية القصيرة، وهجمات الانتحال بالهندسة الاجتماعية (الرسائل النصية القصيرة/النصية)، وتطبيق أفضل ممارسات الأمان لـ Microsoft Teams.
  • حماية البيانات بشكل صارم: تأكد من أن البيانات تظل خاصة ويُجرى التحكم فيها من البداية إلى النهاية.
  • الاستفادة من أدوات أمان الذكاء الاصطناعي التوليدية: يمكن لأدوات مثل Microsoft Copilot للأمان توسيع القدرات وتحسين الوضع الأمني ​​للمؤسسة.
  • تمكين المصادقة متعددة العوامل: بوسعك تمكين المصادقة متعددة العوامل لجميع المستخدمين، خاصة لوظائف المسؤول، حيث أنها تقلل من خطر الاستيلاء على الحساب بنسبة تزيد عن 99 بالمائة.

التصدي للهجمات

تظل Microsoft في الطليعة بفضل الأمان الشامل المقترن بالذكاء الاصطناعي التوليدي

تكتشف Microsoft قدراً هائلاً من حركة المرور الضارة — أكثر من 65 تريليون إشارة أمان عبر الإنترنت يومياً. يعمل الذكاء الاصطناعي على تعزيز قدرتنا على تحليل هذه المعلومات والتأكد من ظهور الأفكار الأكثر قيمة للمساعدة في إيقاف المخاطر.. نستخدم أيضاً ذكاء الإشارة هذا لتشغيل الذكاء الاصطناعي التوليدي للحماية المتقدمة من المخاطر وأمان البيانات، وأمان الهوية لمساعدة المدافعين في اكتشاف ما يفوته الآخرون.

تستخدم Microsoft عدة طرق لحماية نفسها وعملائها من المخاطر عبر الإنترنت بما في ذلك الكشف عن المخاطر المدعومة بالذكاء الاصطناعي لاكتشاف التغييرات في كيفية استخدام الموارد أو نسبة استخدام الشبكة؛ والتحليلات السلوكية للكشف عن عمليات تسجيل الدخول المحفوفة بالمخاطر والسلوك الشاذ؛ ونماذج التعلم الآلي (ML) لاكتشاف عمليات تسجيل الدخول والبرامج الضارة الخطرة؛ ونماذج الثقة المعدومة حيث يجب أن تُجرى مصادقة كل طلب وصول وتفويضه وتشفيره بشكل كامل؛ والتحقق من صحة الجهاز قبل أن يتمكن الجهاز من الاتصال بشبكة الشركة.

نظرًا لأن المخاطر عبر الإنترنت تدرك أن Microsoft تستخدم المصادقة متعددة العوامل (MFA) بصرامة لحماية نفسها - حيث أُعد جميع موظفينا للمصادقة متعددة العوامل أو الحماية بدون كلمة مرور - فقد رأينا مهاجمين يميلون إلى الانتحال بالهندسة الاجتماعية في محاولة لتعريض موظفينا للخطر.

وتشمل النقاط الفعالة لذلك المجالات التي يُجرى فيها نقل الأشياء ذات القيمة، مثل التجارب المجانية أو الأسعار الترويجية للخدمات أو المنتجات. في هذه المناطق، ليس من المربح للمهاجمين سرقة اشتراك واحد في كل مرة، لذلك يحاولون تفعيل تلك الهجمات وتوسيع نطاقها دون كشفهم.

وبطبيعة الحال، نبني نماذج الذكاء الاصطناعي لاكتشاف هذه الهجمات لصالح Microsoft وعملائنا. نكتشف حسابات الطلاب والمدارس المزيفة والشركات أو المنظمات المزيفة التي غيرت بياناتها الرسمية أو أخفت هوياتها الحقيقية للتهرب من العقوبات أو التحايل على الضوابط أو إخفاء التجاوزات الإجرامية السابقة مثل إدانات الفساد ومحاولات السرقة وما إلى ذلك.

يساعد استخدام GitHub Copilot وMicrosoft Copilot للأمان وميزات الدردشة المساعدة الأخرى المدمجة في البنية التحتية للهندسة والعمليات الداخلية لدينا على منع الحوادث التي قد تؤثر على العمليات.

نتائج الاستطلاع حول مخاطر GenAI: مصدر القلق الأساسي لخصوصية البيانات، 42%

ولمعالجة مخاطر البريد الإلكتروني، تعمل Microsoft على تحسين قدراتها على جمع الإشارات إلى جانب تكوين البريد الإلكتروني لفهم ما إذا كانت ضارة. مع وجود الذكاء الاصطناعي في أيدي ممثلي المخاطر، كان هناك تدفق لرسائل البريد الإلكتروني المكتوبة بشكل مثالي والتي تعمل على تحسين اللغة الواضحة والأخطاء النحوية التي غالباً ما تكشف عن محاولات التصيد الاحتيالي، ما يجعل  كشف محاولات التصيد أكثر صعوبة.

هناك حاجة إلى استمرار حملات تثقيف الموظفين وتوعية الجمهور للمساعدة في مكافحة الانتحال بالهندسة الاجتماعية وهي الرافعة الوحيدة التي تعتمد بنسبة 100 بالمائة على الخطأ البشري. علمنا التاريخ أن حملات التوعية العامة الفعالة تعمل على تغيير السلوك.

تتوقع Microsoft أن يطور الذكاء الاصطناعي تكتيكات الانتحال بالهندسة الاجتماعية ما يؤدي إلى إنشاء هجمات أكثر تعقيداً بما في ذلك التزييف العميق واستنساخ الصوت، خاصة إذا وجد المهاجمون أن تقنيات الذكاء الاصطناعي تعمل بدون ممارسات مسؤولة وضوابط أمنية مدمجة.

الوقاية أمر أساسي لمكافحة جميع المخاطر عبر الإنترنت سواء كانت تقليدية أو مدعومة بالذكاء الاصطناعي.

توصيات:

تطبيق ضوابط الذكاء الاصطناعي للبائع وتقييم مدى ملاءمتها باستمرار: بالنسبة لأي ذكاء اصطناعي مُقدم في مؤسستك، ابحث عن الميزات المضمنة للبائعين المعنيين لتوسيع نطاق وصول الذكاء الاصطناعي إلى الموظفين والفرق باستخدام التكنولوجيا لتعزيز اعتماد الذكاء الاصطناعي الآمن والمتوافق. يمكنك جمع أصحاب المصلحة في المخاطر عبر الإنترنت عبر المؤسسة معاً للتوافق مع حالات استخدام موظفي الذكاء الاصطناعي المحددة وضوابط الوصول. يجب على قادة المخاطر ورؤساء أمان المعلومات أن يحددوا بانتظام ما إذا كانت حالات الاستخدام والنُهج كافية، أو ما إذا كان يجب أن تتغير مع تطور الأهداف والتعلم.
الحماية من الحقن السريعة:  تنفيذ التحقق الصارم من صحة المدخلات والتطهير للمطالبات المقدمة من المستخدم. استخدم التصفية المدركة للسياق وترميز الإخراج لمنع المعالجة السريعة. يمكنك تحديث وضبط نماذج اللغة الطبيعية بانتظام لتحسين فهمها للمدخلات الضارة وحالات الحافة. مراقبة وتسجيل تفاعلات نماذج اللغة الطبيعية لاكتشاف وتحليل محاولات الحقن الفوري المحتملة.
تفويض الشفافية عبر سلسلة توريد الذكاء الاصطناعي: من خلال ممارسات واضحة ومفتوحة، يمكنك تقييم جميع المجالات التي يمكن أن يتصل فيها الذكاء الاصطناعي ببيانات مؤسستك، بما في ذلك من خلال الشركاء والموردين الخارجيين. استخدم علاقات الشركاء وفرق المخاطر عبر الإنترنت متعددة الوظائف لاستكشاف الدروس المستفادة وسد أي فجوات ناتجة. الحفاظ على الثقة المعدومة وبرامج حوكمة البيانات الحالية أكثر أهمية من أي وقت مضى في عصر الذكاء الاصطناعي.
واصل التركيز على الاتصالات: يجب على قادة المخاطر عبر الإنترنت أن يدركوا أن الموظفين يشهدون تأثير الذكاء الاصطناعي وفوائده في حياتهم الشخصية وسيرغبون بطبيعة الحال في استكشاف تطبيق تقنيات مماثلة عبر بيئات العمل المختلطة. يمكن لرؤساء أقسام تكنولوجيا المعلومات وغيرهم من القادة الذين يديرون المخاطر عبر الإنترنت أن يشاركوا بشكل استباقي ويوسعوا سياسات مؤسساتهم بشأن استخدام ومخاطر الذكاء الاصطناعي، بما في ذلك أدوات الذكاء الاصطناعي المخصصة المعتمدة للمؤسسات ونقاط الاتصال للوصول والمعلومات. تساعد الاتصالات الاستباقية في إبقاء الموظفين على اطلاع وتمكينهم، مع تقليل مخاطر ربط الذكاء الاصطناعي غير المُدار بأصول تكنولوجيا المعلومات في المؤسسة.

لم تعد الأدوات التقليدية تواكب المخاطر التي يشكلها مجرمون الإنترنت. تتطلب السرعة المتزايدة والحجم والتعقيد للهجمات الإلكترونية الأخيرة اتباع نهج جديد للأمان. بالإضافة إلى ذلك، ونظراً لنقص القوى العاملة في مجال الأمان عبر الإنترنت، ومع تزايد المخاطر عبر الإنترنت من حيث تواترها وشدتها، فإن سد هذه الفجوة في المهارات حاجة ملحة.

يمكن للذكاء الاصطناعي أن يقلب الموازين بالنسبة للمدافعين. أظهرت إحدى الدراسات الحديثة لـ Microsoft Copilot للأمان (حالياً في اختبار معاينة عميل) زيادة في سرعة محللي الأمان ودقتهم، بغض النظر عن مستوى خبرتهم، عبر المهام الشائعة مثل تحديد البرامج النصية التي يستخدمها المهاجمون، وإنشاء تقارير الحوادث، وتحديد خطوات العلاج المناسبة.1

  • أكثر دقة بنسبة 44 بالمائة في جميع المهام لمستخدمي Copilot للأمان1
  • أسرع بنسبة 26 بالمائة في جميع المهام لمستخدمي Copilot للأمان1
  • قال 90 بالمائة إنهم يريدون Copilot في المرة القادمة التي يجرون فيها المهمة نفسها1
  1. [1]

    المنهجية:1 تمثل البيانات السريعة تجربة عشوائية مُتحكم بها (RCT)، حيث اختبرنا 149 شخصاً لقياس تأثير الإنتاجية من استخدام Microsoft Copilot للأمان. في هذه التجربة العشوائية المتحكم بها، أعطينا Copilot لبعض المحللين بشكل عشوائي دون غيرهم، ثم طرحنا أداءهم ومشاعرهم للحصول على تأثير Copilot منفصلاً عن أي تأثير أساسي. كان لدى الأشخاص الخاضعين للاختبار مهارات أساسية في مجال تكنولوجيا المعلومات، لكنهم كانوا مبتدئين في مجال الأمان، لذلك تمكنا من اختبار كيف يساعد Copilot المحللين "الجدد في حياتهم المهنية". أجُريت تجربة عشوائية مُتحكم بها لـ Microsoft Copilot للأمان بواسطة مكتب Microsoft Office لكبير الاقتصاديين، نوفمبر 2023. بالإضافة إلى ذلك، يوفر Microsoft Entra ID بيانات مجهولة المصدر حول أنشطة المخاطر، مثل حسابات البريد الإلكتروني الضارة ورسائل البريد الإلكتروني التصيدية وحركة المهاجمين داخل الشبكات. يُجرى الحصول على نتائج تحليلات إضافية من 65 تريليون إشارة أمان يومية عبر Microsoft، بما في ذلك السحابة ونقاط النهاية والحافة الذكية وفرق الكشف والاستجابة لاسترداد الأمان من الاختراقات وفرق الكشف والاستجابة والقياس عن بعد من أنظمة Microsoft الأساسية وخدماتها بما في ذلك Microsoft Defender وتقري الدفاع الرقمي من Microsoft لعام 2023.

المقالات ذات الصلة

البقاء في صدارة ممثلي المخاطر الذين يشكلون تهديداً في عصر الذكاء الاصطناعي

تنشر Microsoft، بالتعاون مع OpenAI، بحثاً حول المخاطر الناشئة في عصر الذكاء الاصطناعي، مع التركيز على الأنشطة المحددة المرتبطة بممثلي المخاطر المعروفين مثل Forest Blizzard وEmerald Sleet وCrimson Sandstorm وغيرها. يتضمن النشاط الملحوظ الحقن الفوري ومحاولة إساءة استخدام نماذج اللغة الطبيعية (LLM) والاحتيال.

ملف تعريف الخبير: هوما حياتيفار

تصف مديرة البيانات والعلوم التطبيقية الرئيسية هوما حياتيفار استخدام نماذج التعلم الآلي لتعزيز الدفاعات، وهي إحدى الطرق العديدة التي يغير بها الذكاء الاصطناعي وجه الأمان.

الأمان جيد تماماً مثل التحليل الذكي للمخاطر الخاص بك

وصلت مزيد من التعزيزات. يشرح جون لامبرت، قائد التحليل الذكي للمخاطر كيف يعزز الذكاء الاصطناعي مجتمع التحليل الذكي للمخاطر.