kategorie: IT noviny

Microsoft oznámila ochranné řešení AI založené na GPT-4 Security Copilot

Systémy umělé inteligence (AI) se již používají k vytváření grafiky, chatbotů a dokonce k ovládání chytrých domácností. Společnost Microsoft svěřil AI jednu z nejdůležitějších oblastí moderního života – ochranu před kybernetickými hrozbami. Nástroj Security Copilot vám umožňuje rozpoznat kybernetický útok, i když nejsou patrné žádné známky, a pomáhá při jeho eliminaci.

V situacích, kdy je bezpečnost vašeho počítače z nějakého důvodu ohrožena, vám Security Copilot pomůže určit, co se stalo, co dělat a jak zabránit tomu, aby se podobné incidenty staly ostatním. Společnost představila nové řešení založené na modelu GPT-4 – Security Copilot pomáhá firemním klientům vypořádat se s hrozbami.

Nástroj je zatím dostupný pouze pro firemní klientelu. Za Security Copilotem stojí stejný velký jazykový model, který pohání aplikace jako Bing Chat. V tomto případě však hovoříme o možnosti speciálně vyškolené na materiály a terminologii používanou IT profesionály. navíc Microsoft již integroval Copilot se svými dalšími bezpečnostními nástroji. Společnost slibuje, že časem bude moci využívat softwarová řešení třetích stran.

Zatímco většina vlastních aplikací založených na GPT-4 byla trénována na poněkud zastaralých datových sadách, Security Copilot získává nové informace v reálném čase studiem doslova bilionů signálů hrozeb, které Microsoft přijímá denně. To je výhoda modelu – Security Copilot dokáže rozpoznat skryté signály ještě předtím, než se fakt útoku stane zřejmým. Díky tomu lze nástroj použít k rozpoznání a včasné likvidaci hrozeb.

Přitom už před chvílí vyšlo najevo, že umělé inteligence jako ChatGPT, Bing Chat nebo Google Bard mohou mít „halucinace“, během nichž se jako základ pro „uvažování“ používají naprosto nespolehlivá fakta. V oblasti bezpečnosti se z toho může stát velmi nebezpečný jev. V Microsoft již potvrdili, že Security Copilot „ne vždy dělá věci správně“. Naštěstí v případě produktu Microsoft mechanismus zpětné vazby od uživatele poskytuje stále relevantnější odpovědi.

Dosud Microsoft neoznámili, co se může stát, když se obranná umělá inteligence střetne se škodlivou umělou inteligencí, jako je umělá inteligence určená k útokům na uživatele a podniky. V každém případě společnost uvedla, že podnikoví zákazníci již mohou bezpečnostního Copilota testovat na malém segmentu svých uživatelů. Pokud bude experiment úspěšný, bude pravděpodobně v budoucnu schopen pomoci běžným uživatelům.

Zajímavé také:

Share
Julia Alexandrova

Kávovar. Fotograf. Píšu o vědě a vesmíru. Myslím, že je příliš brzy na to, abychom se setkali s mimozemšťany. Sleduji vývoj robotiky, pro případ...

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Povinné položky jsou označeny*