Čtvrtek 28. března 2024

desktop v4.2.1

Root NationZprávyIT novinyMicrosoft oznámila ochranné řešení AI založené na GPT-4 Security Copilot

Microsoft oznámila ochranné řešení AI založené na GPT-4 Security Copilot

-

Systémy umělé inteligence (AI) se již používají k vytváření grafiky, chatbotů a dokonce k ovládání chytrých domácností. Společnost Microsoft svěřil AI jednu z nejdůležitějších oblastí moderního života – ochranu před kybernetickými hrozbami. Nástroj Security Copilot vám umožňuje rozpoznat kybernetický útok, i když nejsou patrné žádné známky, a pomáhá při jeho eliminaci.

V situacích, kdy je bezpečnost vašeho počítače z nějakého důvodu ohrožena, vám Security Copilot pomůže určit, co se stalo, co dělat a jak zabránit tomu, aby se podobné incidenty staly ostatním. Společnost představila nové řešení založené na modelu GPT-4 – Security Copilot pomáhá firemním klientům vypořádat se s hrozbami.

Microsoft Bezpečnostní kopilot

Nástroj je zatím dostupný pouze pro firemní klientelu. Za Security Copilotem stojí stejný velký jazykový model, který pohání aplikace jako Bing Chat. V tomto případě však hovoříme o možnosti speciálně vyškolené na materiály a terminologii používanou IT profesionály. navíc Microsoft již integroval Copilot se svými dalšími bezpečnostními nástroji. Společnost slibuje, že časem bude moci využívat softwarová řešení třetích stran.

Zatímco většina vlastních aplikací založených na GPT-4 byla trénována na poněkud zastaralých datových sadách, Security Copilot získává nové informace v reálném čase studiem doslova bilionů signálů hrozeb, které Microsoft přijímá denně. To je výhoda modelu – Security Copilot dokáže rozpoznat skryté signály ještě předtím, než se fakt útoku stane zřejmým. Díky tomu lze nástroj použít k rozpoznání a včasné likvidaci hrozeb.

Microsoft Bezpečnostní kopilot

Přitom už před chvílí vyšlo najevo, že umělé inteligence jako ChatGPT, Bing Chat nebo Google Bard mohou mít „halucinace“, během nichž se jako základ pro „uvažování“ používají naprosto nespolehlivá fakta. V oblasti bezpečnosti se z toho může stát velmi nebezpečný jev. V Microsoft již potvrdili, že Security Copilot „ne vždy dělá věci správně“. Naštěstí v případě produktu Microsoft mechanismus zpětné vazby od uživatele poskytuje stále relevantnější odpovědi.

Dosud Microsoft neoznámili, co se může stát, když se obranná umělá inteligence střetne se škodlivou umělou inteligencí, jako je umělá inteligence určená k útokům na uživatele a podniky. V každém případě společnost uvedla, že podnikoví zákazníci již mohou bezpečnostního Copilota testovat na malém segmentu svých uživatelů. Pokud bude experiment úspěšný, bude pravděpodobně v budoucnu schopen pomoci běžným uživatelům.

Zajímavé také:

Dzherelomicrosoft
Přihlásit se
Upozornit na
host

0 Komentáře
Vložené recenze
Zobrazit všechny komentáře
Další články
Přihlaste se k odběru aktualizací

Nedávné Komentáře

Nyní populární
0
Milujeme vaše myšlenky, prosím komentujte.x