Root NationНовиниاخبار فناوری اطلاعاتمایکروسافت یک راه حل محافظ هوش مصنوعی مبتنی بر GPT-4 Security Copilot را معرفی کرد

مایکروسافت یک راه حل محافظ هوش مصنوعی مبتنی بر GPT-4 Security Copilot را معرفی کرد

-

سیستم‌های هوش مصنوعی (AI) در حال حاضر برای ایجاد گرافیک، ربات‌های گفتگو و حتی کنترل خانه‌های هوشمند استفاده می‌شوند. مایکروسافت یکی از مهمترین زمینه های زندگی مدرن را به هوش مصنوعی سپرده است - محافظت در برابر تهدیدات سایبری. ابزار Security Copilot به شما این امکان را می‌دهد تا یک حمله سایبری را حتی در صورت عدم وجود علائم واضح تشخیص دهید و به از بین بردن آن کمک می‌کند.

در شرایطی که امنیت رایانه شما به دلایلی به خطر می افتد، Security Copilot به شما کمک می کند تا تعیین کنید چه اتفاقی افتاده است، چه کاری انجام دهید، و چگونه از وقوع حوادث مشابه برای دیگران جلوگیری کنید. این شرکت راه حل جدیدی را بر اساس مدل GPT-4 معرفی کرد - Security Copilot به مشتریان شرکتی کمک می کند تا با تهدیدات مقابله کنند.

Microsoft Security Copilot

تا کنون، این ابزار فقط برای مشتریان شرکتی در دسترس است. همان مدل زبان بزرگی که برنامه‌هایی مانند بینگ چت را تقویت می‌کند، پشت امنیت Copilot قرار دارد. با این حال، در این مورد، ما در مورد گزینه ای صحبت می کنیم که به طور ویژه در مورد مواد و اصطلاحات استفاده شده توسط متخصصان فناوری اطلاعات آموزش دیده است. علاوه بر این، مایکروسافت قبلاً Copilot را با سایر ابزارهای امنیتی خود یکپارچه کرده است. این شرکت قول می دهد که به مرور زمان می تواند از راه حل های نرم افزاری شخص ثالث استفاده کند.

در حالی که بیشتر برنامه‌های کاربردی سفارشی مبتنی بر GPT-4 بر روی مجموعه داده‌های قدیمی آموزش داده شده‌اند، Security Copilot با مطالعه تریلیون‌ها سیگنال تهدید که مایکروسافت هر روز دریافت می‌کند، اطلاعات جدیدی را در زمان واقعی به دست می‌آورد. این مزیت مدل است - امنیت Copilot می تواند سیگنال های پنهان را حتی قبل از آشکار شدن واقعیت یک حمله تشخیص دهد. به همین دلیل می توان از این ابزار برای شناسایی و حذف به موقع تهدیدها استفاده کرد.

Microsoft Security Copilot

در همان زمان، مدتی پیش مشخص شد که در هوش مصنوعی مانند ChatGPT، Bing Chat یا Google Bard، "توهمات" ممکن است رخ دهد که در طی آن از حقایق کاملاً غیر قابل اعتماد به عنوان مبنایی برای "استدلال" استفاده می شود. در زمینه امنیت، این می تواند به یک پدیده بسیار خطرناک تبدیل شود. مایکروسافت قبلاً تأیید کرده است که Security Copilot "همیشه همه چیز را درست نمی کند." خوشبختانه، در مورد محصول مایکروسافت، مکانیزمی برای بازخورد کاربران وجود دارد که به شما امکان می‌دهد پاسخ‌های مرتبط‌تری را ارائه دهید.

تا کنون، مایکروسافت نگفته است که اگر هوش مصنوعی دفاعی با هوش مصنوعی مخرب برخورد کند، چه اتفاقی ممکن است بیفتد، مانند هوش مصنوعی که برای حمله به کاربران و مشاغل طراحی شده است. در هر صورت، این شرکت گفت که مشتریان سازمانی می توانند از قبل امنیت Copilot را روی بخش کوچکی از کاربران خود آزمایش کنند. اگر آزمایش موفقیت آمیز باشد، احتمالاً در آینده می تواند به کاربران عادی کمک کند.

همچنین جالب:

مقالات دیگر
ثبت نام
اطلاع رسانی در مورد
مهمان

0 نظرات
بررسی های جاسازی شده
مشاهده همه نظرات
برای به روز رسانی مشترک شوید
اکنون محبوب است