Root Nationأخبارأخبار تكنولوجيا المعلوماتMicrosoft أعلنت عن حل وقائي للذكاء الاصطناعي يعتمد على GPT-4 Security Copilot

Microsoft أعلنت عن حل وقائي للذكاء الاصطناعي يعتمد على GPT-4 Security Copilot

-

يتم بالفعل استخدام أنظمة الذكاء الاصطناعي (AI) لإنشاء الرسومات وروبوتات الدردشة وحتى التحكم في المنازل الذكية. شركة Microsoft عهدت إلى الذكاء الاصطناعي بأحد أهم مجالات الحياة الحديثة – الحماية من التهديدات السيبرانية. تتيح لك أداة Security Copilot التعرف على الهجوم السيبراني حتى في حالة عدم وجود علامات واضحة وتساعد في القضاء عليه.

في المواقف التي يتم فيها اختراق أمان جهاز الكمبيوتر الخاص بك لسبب ما ، سيساعدك Security Copilot في تحديد ما حدث وما يجب فعله وكيفية منع وقوع حوادث مماثلة للآخرين. قدمت الشركة حلاً جديدًا يعتمد على نموذج GPT-4 - يساعد Security Copilot عملاء الشركات في التعامل مع التهديدات.

Microsoft مساعد الطيار الأمني

حتى الآن، الأداة متاحة فقط لعملاء الشركات. نفس نموذج اللغة الكبير الذي يشغل تطبيقات مثل Bing Chat هو خلف Security Copilot. ومع ذلك، في هذه الحالة نحن نتحدث عن خيار تم تدريبه خصيصًا على المواد والمصطلحات المستخدمة من قبل متخصصي تكنولوجيا المعلومات. فضلاً عن ذلك، Microsoft قامت بالفعل بدمج برنامج Copilot مع أدوات الأمان الأخرى الخاصة بها. تعد الشركة بأنها ستتمكن بمرور الوقت من استخدام حلول برامج الطرف الثالث.

في حين أن معظم التطبيقات المخصصة المستندة إلى GPT-4 تم تدريبها على مجموعات بيانات قديمة إلى حد ما، فإن برنامج Security Copilot يكتسب معلومات جديدة في الوقت الفعلي من خلال دراسة تريليونات من إشارات التهديد التي Microsoft يستقبل يوميا. هذه هي ميزة النموذج - يستطيع مساعد الطيار الأمني ​​التعرف على الإشارات المخفية حتى قبل أن تصبح حقيقة الهجوم واضحة. بفضل هذا، يمكن استخدام الأداة للتعرف على التهديدات والقضاء عليها في الوقت المناسب.

Microsoft مساعد الطيار الأمني

في الوقت نفسه، أصبح من الواضح منذ فترة طويلة أن أنظمة الذكاء الاصطناعي مثل ChatGPT أو Bing Chat أو Google Bard يمكن أن تعاني من "الهلوسة" التي يتم خلالها استخدام حقائق غير موثوقة تمامًا كأساس "للاستدلال". وفي مجال الأمن، يمكن أن تصبح هذه ظاهرة خطيرة للغاية. في Microsoft لقد أكدنا بالفعل أن برنامج Security Copilot "لا يقوم دائمًا بتصحيح الأمور". ولحسن الحظ، في حالة المنتج Microsoft يتم توفير آلية تعليقات المستخدمين لتقديم استجابات ذات صلة بشكل متزايد.

حتى الآن Microsoft لم يبلغنا عما قد يحدث عندما يصطدم الذكاء الاصطناعي الدفاعي بالذكاء الاصطناعي الضار، مثل الذكاء الاصطناعي المصمم لمهاجمة المستخدمين والشركات. على أية حال، قالت الشركة إن عملاء المؤسسات يمكنهم بالفعل اختبار Security Copilot على شريحة صغيرة من مستخدميهم. إذا نجحت التجربة، فمن المحتمل أن تكون قادرة على مساعدة المستخدمين العاديين في المستقبل.

مثير للاهتمام أيضًا:

مصدرmicrosoft
اشتراك
يخطر حول
ضيف

0 التعليقات
المراجعات المضمنة
عرض كل التعليقات
مقالات أخرى
اشترك للحصول على التحديثات
شائع الآن