Root NationNyheterIT-nyheterMicrosoft kunngjorde en beskyttende AI-løsning basert på GPT-4 Security Copilot

Microsoft kunngjorde en beskyttende AI-løsning basert på GPT-4 Security Copilot

-

Kunstig intelligens (AI)-systemer brukes allerede til å lage grafikk, chatbots og til og med kontrollere smarte hjem. Selskap Microsoft betrodde AI en av de viktigste sfærene i det moderne liv – beskyttelse mot cybertrusler. Security Copilot-verktøyet lar deg gjenkjenne et cyberangrep selv når det ikke er noen åpenbare tegn, og hjelper med å eliminere det.

I situasjoner der sikkerheten til datamaskinen din er kompromittert av en eller annen grunn, vil Security Copilot hjelpe deg med å finne ut hva som har skjedd, hva du skal gjøre og hvordan du kan forhindre at lignende hendelser skjer med andre. Selskapet introduserte en ny løsning basert på GPT-4-modellen - Security Copilot hjelper bedriftskunder med å håndtere trusler.

Microsoft Sikkerhetscopilot

Foreløpig er verktøyet kun tilgjengelig for bedriftskunder. Den samme store språkmodellen som driver apper som Bing Chat står bak Security Copilot. I dette tilfellet snakker vi imidlertid om et alternativ spesielt opplært på materialene og terminologien som brukes av IT-fagfolk. I tillegg, Microsoft har allerede integrert Copilot med sine andre sikkerhetsverktøy. Selskapet lover at det over tid vil kunne bruke tredjeparts programvareløsninger.

Mens de fleste GPT-4-baserte tilpassede applikasjoner ble trent på noe utdaterte datasett, får Security Copilot ny informasjon i sanntid ved å studere bokstavelig talt billioner av trusselsignaler som Microsoft mottar daglig. Dette er fordelen med modellen - Security Copilot kan gjenkjenne skjulte signaler selv før et angrep har blitt åpenbart. Takket være dette kan verktøyet brukes til å gjenkjenne og eliminere trusler i tide.

Microsoft Sikkerhetscopilot

Samtidig ble det klart for en stund siden at AI-er som ChatGPT, Bing Chat eller Google Bard kan ha "hallusinasjoner" der fullstendig upålitelige fakta brukes som grunnlag for "resonnering". Innenfor sikkerhet kan dette bli et svært farlig fenomen. I Microsoft har allerede bekreftet at Security Copilot "ikke alltid får ting riktig." Heldigvis, når det gjelder produktet Microsoft en tilbakemeldingsmekanisme for brukere er tilgjengelig for å gi stadig mer relevante svar.

Ennå Microsoft rapporterte ikke hva som kan skje når defensiv AI kolliderer med ondsinnet AI, for eksempel en designet for å angripe brukere og bedrifter. I alle fall sa selskapet at bedriftskunder allerede kan teste Security Copilot på et lite segment av brukerne. Hvis eksperimentet lykkes, vil det trolig kunne hjelpe vanlige brukere i fremtiden.

Også interessant:

Dzherelomicrosoft
Melde deg på
Gi beskjed om
gjest

0 Kommentar
Innebygde anmeldelser
Se alle kommentarer