Root NationNieuwsIT-nieuwsMicrosoft heeft een beschermende AI-oplossing aangekondigd op basis van GPT-4 Security Copilot

Microsoft heeft een beschermende AI-oplossing aangekondigd op basis van GPT-4 Security Copilot

-

Systemen voor kunstmatige intelligentie (AI) worden al gebruikt om grafische afbeeldingen, chatbots te maken en zelfs slimme huizen te besturen. Bedrijf Microsoft heeft AI een van de belangrijkste domeinen van het moderne leven toevertrouwd: bescherming tegen cyberdreigingen. Met de Security Copilot-tool kunt u een cyberaanval herkennen, zelfs als er geen duidelijke tekenen zijn, en helpt bij de eliminatie ervan.

In situaties waarin de beveiliging van uw computer om de een of andere reden in het gedrang komt, helpt Security Copilot u te bepalen wat er is gebeurd, wat u moet doen en hoe u kunt voorkomen dat soortgelijke incidenten anderen overkomen. Het bedrijf introduceerde een nieuwe oplossing op basis van het GPT-4-model: Security Copilot helpt zakelijke klanten om te gaan met bedreigingen.

Microsoft Beveiliging Copiloot

Tot nu toe is de tool alleen beschikbaar voor zakelijke klanten. Hetzelfde grote taalmodel dat apps als Bing Chat aandrijft, zit achter Security Copilot. In dit geval hebben we het echter over een optie die speciaal is opgeleid in de materialen en terminologie die door IT-professionals worden gebruikt. In aanvulling, Microsoft heeft Copilot al geïntegreerd met zijn andere beveiligingstools. Het bedrijf belooft dat het in de loop van de tijd softwareoplossingen van derden zal kunnen gebruiken.

Terwijl de meeste op GPT-4 gebaseerde applicaties op maat zijn getraind op enigszins verouderde datasets, verkrijgt Security Copilot in realtime nieuwe inzichten door letterlijk biljoenen dreigingssignalen te bestuderen die Microsoft ontvangt dagelijks. Dit is het voordeel van het model: Security Copilot kan verborgen signalen herkennen nog voordat het feit van een aanval duidelijk is geworden. Hierdoor kan de tool worden gebruikt om bedreigingen te herkennen en tijdig te elimineren.

Microsoft Beveiliging Copiloot

Tegelijkertijd werd al een tijdje geleden duidelijk dat AI’s zoals ChatGPT, Bing Chat of Google Bard ‘hallucinaties’ kunnen hebben, waarbij volledig onbetrouwbare feiten worden gebruikt als basis voor ‘redeneringen’. Op veiligheidsgebied kan dit een zeer gevaarlijk fenomeen worden. IN Microsoft hebben al bevestigd dat Security Copilot "de zaken niet altijd goed doet". Gelukkig wel in het geval van het product Microsoft Er wordt voorzien in een gebruikersfeedbackmechanisme om steeds relevantere antwoorden te geven.

Nog Microsoft heeft niet gerapporteerd wat er zou kunnen gebeuren als defensieve AI botst met kwaadaardige AI, zoals een AI die is ontworpen om gebruikers en bedrijven aan te vallen. Het bedrijf zegt in ieder geval dat zakelijke klanten Security Copilot al kunnen testen op een klein deel van hun gebruikers. Als het experiment succesvol is, kunnen gewone gebruikers er in de toekomst waarschijnlijk mee geholpen worden.

Ook interessant:

Aanmelden
Informeer over
gast

0 Heb je vragen? Stel ze hier.
Ingesloten beoordelingen
Bekijk alle reacties