Root NationНовиниIT новиниMicrosoft обяви защитно AI решение, базирано на GPT-4 Security Copilot

Microsoft обяви защитно AI решение, базирано на GPT-4 Security Copilot

-

Системите с изкуствен интелект (AI) вече се използват за създаване на графики, чатботове и дори за управление на интелигентни домове. Microsoft повери на AI една от най-важните области на съвременния живот – защитата срещу кибер заплахи. Инструментът Security Copilot ви позволява да разпознаете кибератака, дори когато няма очевидни признаци и помага за нейното елиминиране.

В ситуации, в които сигурността на вашия компютър е компрометирана по някаква причина, Security Copilot ще ви помогне да определите какво се е случило, какво да направите и как да предотвратите подобни инциденти да се случат на други. Компанията представи ново решение, базирано на модела GPT-4 - Security Copilot помага на корпоративните клиенти да се справят със заплахите.

Microsoft Security Copilot

Засега инструментът е достъпен само за корпоративни клиенти. Същият голям езиков модел, който захранва приложения като Bing Chat, стои зад Security Copilot. В този случай обаче говорим за вариант, специално обучен върху материалите и терминологията, използвани от ИТ специалистите. Освен това Microsoft вече интегрира Copilot с другите си инструменти за сигурност. Компанията обещава, че след време ще може да използва софтуерни решения на трети страни.

Докато повечето персонализирани приложения, базирани на GPT-4, бяха обучени на вече донякъде остарели набори от данни, Security Copilot получава нова информация в реално време, като изучава буквално трилиони сигнали за заплахи, които Microsoft получава всеки ден. Това е предимството на модела - Security Copilot може да разпознава скрити сигнали още преди фактът на атака да е станал явен. Благодарение на това инструментът може да се използва за разпознаване и своевременно премахване на заплахи.

Microsoft Security Copilot

В същото време преди доста време стана ясно, че в AI като ChatGPT, Bing Chat или Google Bard могат да възникнат „халюцинации“, по време на които напълно недостоверни факти се използват като основа за „разсъждение“. В областта на сигурността това може да се превърне в много опасно явление. Microsoft вече потвърди, че Security Copilot „не винаги прави нещата както трябва“. За щастие, в случай на продукт на Microsoft има механизъм за обратна връзка с потребителите, който ви позволява да предоставяте все по-подходящи отговори.

Досега Microsoft не каза какво може да се случи, ако защитният AI се сблъска със злонамерен AI, като например такъв, предназначен да атакува потребители и фирми. Във всеки случай компанията каза, че корпоративните клиенти вече могат да тестват Security Copilot на малък сегмент от своите потребители. Ако експериментът е успешен, той вероятно ще може да помогне на обикновените потребители в бъдеще.

Също интересно:

DzhereloMicrosoft
Други статии
Регистрирай се
Уведомете за
гост

0 Коментари
Вградени рецензии
Вижте всички коментари
Абонирайте се за актуализации
Популярни сега