Root NationNaujienosIT naujienos„Microsoft“ paskelbė apie apsauginį AI sprendimą, pagrįstą GPT-4 Security Copilot

„Microsoft“ paskelbė apie apsauginį AI sprendimą, pagrįstą GPT-4 Security Copilot

-

Dirbtinio intelekto (AI) sistemos jau naudojamos kuriant grafiką, pokalbių robotus ir netgi valdant išmaniuosius namus. Microsoft patikėjo dirbtiniam intelektui vieną iš svarbiausių šiuolaikinio gyvenimo sričių – apsaugą nuo kibernetinių grėsmių. „Security Copilot“ įrankis leidžia atpažinti kibernetinę ataką net tada, kai nėra akivaizdžių požymių, ir padeda ją pašalinti.

Tais atvejais, kai dėl kokios nors priežasties pažeidžiamas jūsų kompiuterio saugumas, „Security Copilot“ padės nustatyti, kas atsitiko, ką daryti ir kaip užkirsti kelią panašiems incidentams kitiems. Bendrovė pristatė naują sprendimą, paremtą GPT-4 modeliu – Security Copilot padeda verslo klientams susidoroti su grėsmėmis.

„Microsoft Security Copilot“.

Kol kas įrankis prieinamas tik verslo klientams. Tas pats didelis kalbos modelis, kuris maitina tokias programas kaip „Bing Chat“, yra už „Security Copilot“. Tačiau šiuo atveju kalbame apie galimybę, specialiai apmokytą IT specialistų naudojamoms medžiagoms ir terminams. Be to, „Microsoft“ jau integravo „Copilot“ su kitais saugos įrankiais. Bendrovė žada, kad laikui bėgant galės naudoti trečiųjų šalių programinės įrangos sprendimus.

Nors dauguma GPT-4 pagrįstų tinkintų programų buvo apmokytos naudojant jau šiek tiek pasenusius duomenų rinkinius, „Security Copilot“ realiuoju laiku įgyja naujos informacijos, tyrinėdamas trilijonus grėsmės signalų, kuriuos „Microsoft“ gauna kiekvieną dieną. Tai modelio privalumas – „Security Copilot“ gali atpažinti paslėptus signalus dar prieš išaiškėjus atakos faktui. Dėl to įrankis gali būti naudojamas grėsmėms atpažinti ir laiku pašalinti.

„Microsoft Security Copilot“.

Tuo pačiu jau gana seniai paaiškėjo, kad tokiuose AI kaip ChatGPT, Bing Chat ar Google Bard gali atsirasti „haliucinacijų“, kurių metu „samprotavimui“ remiamasi visiškai nepatikimais faktais. Saugumo srityje tai gali tapti labai pavojingu reiškiniu. „Microsoft“ jau patvirtino, kad „Security Copilot“ „ne visada viską sutvarko teisingai“. Laimei, Microsoft produkto atveju yra vartotojų atsiliepimų mechanizmas, leidžiantis pateikti vis aktualesnius atsakymus.

Iki šiol „Microsoft“ nepasakė, kas gali nutikti, jei gynybinis AI susidurtų su kenkėjiška AI, pavyzdžiui, skirta atakuoti vartotojus ir įmones. Bet kokiu atveju bendrovė teigė, kad įmonės klientai jau gali išbandyti „Security Copilot“ nedidelei vartotojų grupei. Jei eksperimentas bus sėkmingas, jis greičiausiai galės padėti paprastiems vartotojams ateityje.

Taip pat įdomu:

Kiti straipsniai
Registruotis
Pranešti apie
svečias

0 komentarai
Įterptieji atsiliepimai
Žiūrėti visus komentarus
Prenumeruokite naujienas
Dabar populiarus