Root NationNyhederIT nyhederMicrosoft annonceret en beskyttende AI-løsning baseret på GPT-4 Security Copilot

Microsoft annonceret en beskyttende AI-løsning baseret på GPT-4 Security Copilot

-

Kunstig intelligens (AI)-systemer bliver allerede brugt til at skabe grafik, chatbots og endda styre smarte hjem. Selskab Microsoft betroet AI en af ​​de vigtigste sfærer i det moderne liv – beskyttelse mod cybertrusler. Security Copilot-værktøjet giver dig mulighed for at genkende et cyberangreb, selv når der ikke er nogen tydelige tegn, og hjælper med at fjerne det.

I situationer, hvor din computers sikkerhed er kompromitteret af en eller anden grund, hjælper Security Copilot dig med at bestemme, hvad der skete, hvad du skal gøre, og hvordan du forhindrer lignende hændelser i at ske med andre. Virksomheden introducerede en ny løsning baseret på GPT-4-modellen - Security Copilot hjælper virksomhedskunder med at håndtere trusler.

Microsoft Sikkerhedscopilot

Indtil videre er værktøjet kun tilgængeligt for erhvervskunder. Den samme store sprogmodel, der driver apps som Bing Chat, står bag Security Copilot. Men i dette tilfælde taler vi om en mulighed, der er specielt uddannet i de materialer og den terminologi, der bruges af it-professionelle. Ud over, Microsoft har allerede integreret Copilot med sine andre sikkerhedsværktøjer. Virksomheden lover, at den med tiden vil være i stand til at bruge tredjeparts softwareløsninger.

Mens de fleste GPT-4-baserede brugerdefinerede applikationer blev trænet på noget forældede datasæt, får Security Copilot ny information i realtid ved at studere bogstaveligt talt billioner af trusselssignaler, der Microsoft modtager dagligt. Dette er fordelen ved modellen - Security Copilot kan genkende skjulte signaler, selv før et angreb er blevet tydeligt. Takket være dette kan værktøjet bruges til at genkende og rettidigt eliminere trusler.

Microsoft Sikkerhedscopilot

Samtidig blev det klart for et stykke tid siden, at AI'er som ChatGPT, Bing Chat eller Google Bard kan have "hallucinationer", hvor fuldstændig upålidelige fakta bruges som grundlag for "ræsonnement". På sikkerhedsområdet kan dette blive et meget farligt fænomen. I Microsoft har allerede bekræftet, at Security Copilot "ikke altid får tingene rigtigt." Heldigvis i produktets tilfælde Microsoft en brugerfeedbackmekanisme er tilvejebragt for at give stadig mere relevante svar.

Endnu Microsoft rapporterede ikke, hvad der kunne ske, når defensiv AI kolliderer med ondsindet AI, såsom en designet til at angribe brugere og virksomheder. Under alle omstændigheder sagde virksomheden, at virksomhedskunder allerede kan teste Security Copilot på et lille segment af deres brugere. Hvis forsøget lykkes, vil det sandsynligvis kunne hjælpe almindelige brugere i fremtiden.

Også interessant:

Dzherelomicrosoft
Tilmelde
Giv besked om
gæst

0 Kommentarer
Indlejrede anmeldelser
Se alle kommentarer
Andre artikler
Abonner for opdateringer
Populær nu