Systémy umělé inteligence (AI) se již používají k vytváření grafiky, chatbotů a dokonce k ovládání chytrých domácností. Microsoft svěřil AI jednu z nejdůležitějších oblastí moderního života – ochranu před kybernetickými hrozbami. Nástroj Security Copilot vám umožňuje rozpoznat kybernetický útok, i když nejsou patrné žádné známky, a pomáhá při jeho eliminaci.
V situacích, kdy je bezpečnost vašeho počítače z nějakého důvodu ohrožena, vám Security Copilot pomůže určit, co se stalo, co dělat a jak zabránit tomu, aby se podobné incidenty staly ostatním. Společnost představila nové řešení založené na modelu GPT-4 – Security Copilot pomáhá firemním klientům vypořádat se s hrozbami.
Zatím je nástroj dostupný pouze pro firemní zákazníky. Za Security Copilotem stojí stejný velký jazykový model, který pohání aplikace jako Bing Chat. V tomto případě však hovoříme o možnosti speciálně vyškolené na materiály a terminologii používanou IT profesionály. Kromě toho již Microsoft Copilot integroval se svými dalšími bezpečnostními nástroji. Společnost slibuje, že časem bude moci využívat softwarová řešení třetích stran.
Zatímco většina vlastních aplikací založených na GPT-4 byla trénována na již poněkud zastaralých datových sadách, Security Copilot získává nové informace v reálném čase studiem doslova bilionů signálů hrozeb, které Microsoft dostává každý den. To je výhoda modelu – Security Copilot dokáže rozpoznat skryté signály ještě předtím, než se fakt útoku stane zřejmým. Díky tomu lze nástroj použít k rozpoznání a včasné likvidaci hrozeb.
Přitom už před nějakou dobou vyšlo najevo, že v AI jako ChatGPT, Bing Chat nebo Google Bard může docházet k „halucinacím“, při kterých se jako základ pro „uvažování“ používají naprosto nespolehlivá fakta. V oblasti bezpečnosti se z toho může stát velmi nebezpečný jev. Microsoft již potvrdil, že Security Copilot „ne vždy vyjde věci správně“. Naštěstí v případě produktu Microsoftu existuje mechanismus zpětné vazby od uživatelů, který umožňuje poskytovat stále relevantnější odpovědi.
Microsoft zatím neřekl, co by se mohlo stát, kdyby se defenzivní AI srazila se škodlivou AI, jako je ta, která je navržena k útokům na uživatele a podniky. V každém případě společnost uvedla, že podnikoví zákazníci již mohou bezpečnostního Copilota testovat na malém segmentu svých uživatelů. Pokud bude experiment úspěšný, bude pravděpodobně v budoucnu schopen pomoci běžným uživatelům.
Zajímavé také:
- Microsoft Store ve Windows 11 vám umožní instalovat aplikace prostřednictvím výsledků vyhledávání
- Microsoft Bing Chat začíná integrovat reklamy do odpovědí