Root NationНовиниأخبار تكنولوجيا المعلوماتأعلنت Microsoft عن حل AI وقائي يعتمد على GPT-4 Security Copilot

أعلنت Microsoft عن حل AI وقائي يعتمد على GPT-4 Security Copilot

-

يتم استخدام أنظمة الذكاء الاصطناعي (AI) بالفعل لإنشاء رسومات وروبوتات محادثة وحتى للتحكم في المنازل الذكية. كلفت Microsoft الذكاء الاصطناعي بأحد أهم مجالات الحياة العصرية - الحماية من التهديدات الإلكترونية. تتيح لك أداة Security Copilot التعرف على الهجوم السيبراني حتى في حالة عدم وجود علامات واضحة وتساعد في القضاء عليه.

في المواقف التي يتم فيها اختراق أمان جهاز الكمبيوتر الخاص بك لسبب ما ، سيساعدك Security Copilot في تحديد ما حدث وما يجب فعله وكيفية منع وقوع حوادث مماثلة للآخرين. قدمت الشركة حلاً جديدًا يعتمد على نموذج GPT-4 - يساعد Security Copilot عملاء الشركات في التعامل مع التهديدات.

مساعد الطيار Microsoft Security

حتى الآن ، الأداة متاحة فقط لعملاء الشركات. نفس نموذج اللغة الكبير الذي يشغل تطبيقات مثل Bing Chat هو وراء Security Copilot. ومع ذلك ، في هذه الحالة نتحدث عن خيار تم تدريبه خصيصًا على المواد والمصطلحات المستخدمة من قبل متخصصي تكنولوجيا المعلومات. بالإضافة إلى ذلك ، قامت Microsoft بالفعل بدمج Copilot مع أدوات الأمان الأخرى الخاصة بها. تتعهد الشركة بأنها ستتمكن بمرور الوقت من استخدام حلول برمجية تابعة لجهات خارجية.

بينما تم تدريب معظم التطبيقات المخصصة المستندة إلى GPT-4 على مجموعات بيانات قديمة نوعًا ما ، يكتسب Security Copilot معلومات جديدة في الوقت الفعلي من خلال دراسة تريليونات إشارات التهديد التي تتلقاها Microsoft كل يوم. هذه هي ميزة النموذج - يستطيع مساعد الطيار الأمني ​​التعرف على الإشارات المخفية حتى قبل أن تصبح حقيقة الهجوم واضحة. بفضل هذا ، يمكن استخدام الأداة للتعرف على التهديدات والقضاء عليها في الوقت المناسب.

مساعد الطيار Microsoft Security

في الوقت نفسه ، أصبح من الواضح منذ بعض الوقت أنه في الذكاء الاصطناعي مثل ChatGPT أو Bing Chat أو Google Bard ، يمكن أن تحدث "الهلوسة" ، حيث يتم استخدام حقائق غير موثوقة تمامًا كأساس لـ "التفكير". في مجال الأمن ، يمكن أن تصبح هذه ظاهرة خطيرة للغاية. أكدت Microsoft بالفعل أن Security Copilot "لا يصحح الأمور دائمًا". لحسن الحظ ، في حالة أحد منتجات Microsoft ، توجد آلية لتعليقات المستخدمين ، والتي تتيح لك تقديم إجابات ذات صلة بشكل متزايد.

حتى الآن ، لم تقل Microsoft ما قد يحدث إذا اصطدم الذكاء الاصطناعي الدفاعي بالذكاء الاصطناعي الضار ، مثل ذلك المصمم لمهاجمة المستخدمين والشركات. على أي حال ، قالت الشركة إن عملاء المؤسسة يمكنهم بالفعل اختبار Security Copilot على شريحة صغيرة من مستخدميهم. إذا نجحت التجربة ، فمن المحتمل أن تكون قادرة على مساعدة المستخدمين العاديين في المستقبل.

مثير للاهتمام أيضًا:

مقالات أخرى

اشتراك
يخطر حول
ضيف

0 التعليقات
المراجعات المضمنة
عرض كل التعليقات

اشترك للحصول على التحديثات

شائع الآن