دسته بندی ها: اخبار فناوری اطلاعات

Microsoft یک راه حل محافظ هوش مصنوعی مبتنی بر GPT-4 Security Copilot اعلام کرد

سیستم‌های هوش مصنوعی (AI) در حال حاضر برای ایجاد گرافیک، ربات‌های گفتگو و حتی کنترل خانه‌های هوشمند استفاده می‌شوند. شرکت Microsoft یکی از مهم‌ترین حوزه‌های زندگی مدرن - محافظت در برابر تهدیدات سایبری - را به هوش مصنوعی سپرد. ابزار Security Copilot به شما اجازه می دهد تا یک حمله سایبری را حتی زمانی که هیچ نشانه واضحی وجود ندارد شناسایی کنید و به از بین بردن آن کمک می کند.

در شرایطی که امنیت رایانه شما به دلایلی به خطر می افتد، Security Copilot به شما کمک می کند تا تعیین کنید چه اتفاقی افتاده است، چه کاری انجام دهید، و چگونه از وقوع حوادث مشابه برای دیگران جلوگیری کنید. این شرکت راه حل جدیدی را بر اساس مدل GPT-4 معرفی کرد - Security Copilot به مشتریان شرکتی کمک می کند تا با تهدیدات مقابله کنند.

تا کنون، این ابزار فقط برای مشتریان شرکتی در دسترس است. همان مدل زبان بزرگی که برنامه‌هایی مانند بینگ چت را تقویت می‌کند، پشت امنیت Copilot قرار دارد. با این حال، در این مورد، ما در مورد گزینه ای صحبت می کنیم که به طور ویژه در مورد مواد و اصطلاحات استفاده شده توسط متخصصان فناوری اطلاعات آموزش دیده است. علاوه بر این، Microsoft قبلاً Copilot را به سایر ابزارهای امنیتی خود متصل کرده است. این شرکت قول می دهد که به مرور زمان می تواند از راه حل های نرم افزاری شخص ثالث استفاده کند.

در حالی که اکثر برنامه های کاربردی سفارشی مبتنی بر GPT-4 بر روی مجموعه داده های تا حدی قدیمی آموزش داده شده اند، Copilot Security اطلاعات جدیدی را در زمان واقعی با مطالعه تریلیون ها سیگنال تهدید به دست می آورد. Microsoft روزانه دریافت می کند. این مزیت مدل است - امنیت Copilot می تواند سیگنال های پنهان را حتی قبل از آشکار شدن واقعیت حمله تشخیص دهد. به لطف این، می توان از این ابزار برای شناسایی و حذف به موقع تهدیدها استفاده کرد.

در همان زمان، مدتی پیش مشخص شد که در هوش مصنوعی مانند ChatGPT، Bing Chat یا Google Bard، "توهمات" ممکن است رخ دهد که در طی آن از حقایق کاملاً غیر قابل اعتماد به عنوان مبنایی برای "استدلال" استفاده می شود. در زمینه امنیت، این می تواند به یک پدیده بسیار خطرناک تبدیل شود. که در Microsoft قبلاً تأیید کرده اند که Security Copilot "همیشه همه چیز را درست نمی کند." خوشبختانه در مورد محصول Microsoft مکانیزم بازخورد کاربر ارائه شده است که به شما امکان می دهد پاسخ های مرتبط را ارائه دهید.

هنوز Microsoft آنچه ممکن است هنگام برخورد هوش مصنوعی دفاعی با هوش مصنوعی مخرب، مانند هوش مصنوعی طراحی شده برای حمله به کاربران و مشاغل، اتفاق بیفتد. در هر صورت، این شرکت گفت که مشتریان سازمانی می توانند از قبل امنیت Copilot را روی بخش کوچکی از کاربران خود آزمایش کنند. اگر آزمایش موفقیت آمیز باشد، احتمالاً در آینده می تواند به کاربران عادی کمک کند.

همچنین جالب:

اشتراک گذاری
Julia Alexandrova

قهوه خانه عکاس. من در مورد علم و فضا می نویسم. من فکر می کنم برای ما برای ملاقات با بیگانگان خیلی زود است. من توسعه رباتیک را دنبال می کنم، فقط در صورت ...

پاسخ دهید

آدرس ایمیل شما منتشر نخواهد شد. بخشهای موردنیاز علامتگذاری شدهاند*