سیستمهای هوش مصنوعی (AI) در حال حاضر برای ایجاد گرافیک، رباتهای گفتگو و حتی کنترل خانههای هوشمند استفاده میشوند. مایکروسافت یکی از مهمترین زمینه های زندگی مدرن را به هوش مصنوعی سپرده است - محافظت در برابر تهدیدات سایبری. ابزار Security Copilot به شما این امکان را میدهد تا یک حمله سایبری را حتی در صورت عدم وجود علائم واضح تشخیص دهید و به از بین بردن آن کمک میکند.
در شرایطی که امنیت رایانه شما به دلایلی به خطر می افتد، Security Copilot به شما کمک می کند تا تعیین کنید چه اتفاقی افتاده است، چه کاری انجام دهید، و چگونه از وقوع حوادث مشابه برای دیگران جلوگیری کنید. این شرکت راه حل جدیدی را بر اساس مدل GPT-4 معرفی کرد - Security Copilot به مشتریان شرکتی کمک می کند تا با تهدیدات مقابله کنند.
تا کنون، این ابزار فقط برای مشتریان شرکتی در دسترس است. همان مدل زبان بزرگی که برنامههایی مانند بینگ چت را تقویت میکند، پشت امنیت Copilot قرار دارد. با این حال، در این مورد، ما در مورد گزینه ای صحبت می کنیم که به طور ویژه در مورد مواد و اصطلاحات استفاده شده توسط متخصصان فناوری اطلاعات آموزش دیده است. علاوه بر این، مایکروسافت قبلاً Copilot را با سایر ابزارهای امنیتی خود یکپارچه کرده است. این شرکت قول می دهد که به مرور زمان می تواند از راه حل های نرم افزاری شخص ثالث استفاده کند.
در حالی که بیشتر برنامههای کاربردی سفارشی مبتنی بر GPT-4 بر روی مجموعه دادههای قدیمی آموزش داده شدهاند، Security Copilot با مطالعه تریلیونها سیگنال تهدید که مایکروسافت هر روز دریافت میکند، اطلاعات جدیدی را در زمان واقعی به دست میآورد. این مزیت مدل است - امنیت Copilot می تواند سیگنال های پنهان را حتی قبل از آشکار شدن واقعیت یک حمله تشخیص دهد. به همین دلیل می توان از این ابزار برای شناسایی و حذف به موقع تهدیدها استفاده کرد.
در همان زمان، مدتی پیش مشخص شد که در هوش مصنوعی مانند ChatGPT، Bing Chat یا Google Bard، "توهمات" ممکن است رخ دهد که در طی آن از حقایق کاملاً غیر قابل اعتماد به عنوان مبنایی برای "استدلال" استفاده می شود. در زمینه امنیت، این می تواند به یک پدیده بسیار خطرناک تبدیل شود. مایکروسافت قبلاً تأیید کرده است که Security Copilot "همیشه همه چیز را درست نمی کند." خوشبختانه، در مورد محصول مایکروسافت، مکانیزمی برای بازخورد کاربران وجود دارد که به شما امکان میدهد پاسخهای مرتبطتری را ارائه دهید.
تا کنون، مایکروسافت نگفته است که اگر هوش مصنوعی دفاعی با هوش مصنوعی مخرب برخورد کند، چه اتفاقی ممکن است بیفتد، مانند هوش مصنوعی که برای حمله به کاربران و مشاغل طراحی شده است. در هر صورت، این شرکت گفت که مشتریان سازمانی می توانند از قبل امنیت Copilot را روی بخش کوچکی از کاربران خود آزمایش کنند. اگر آزمایش موفقیت آمیز باشد، احتمالاً در آینده می تواند به کاربران عادی کمک کند.
همچنین جالب:
- فروشگاه مایکروسافت در ویندوز 11 به شما امکان می دهد برنامه ها را از طریق نتایج جستجو نصب کنید
- بینگ چت مایکروسافت شروع به ادغام تبلیغات در پاسخ ها کرده است