Root NationНовиниIT-nyheterMicrosoft tillkännagav en skyddande AI-lösning baserad på GPT-4 Security Copilot

Microsoft tillkännagav en skyddande AI-lösning baserad på GPT-4 Security Copilot

-

Artificiell intelligens (AI)-system används redan för att skapa grafik, chatbots och till och med styra smarta hem. Microsoft anförtrodde AI ett av de viktigaste områdena i det moderna livet – skydd mot cyberhot. Security Copilot-verktyget låter dig känna igen en cyberattack även när det inte finns några uppenbara tecken och hjälper till att eliminera den.

I situationer där din dators säkerhet äventyras av någon anledning, hjälper Security Copilot dig att avgöra vad som hände, vad du ska göra och hur du förhindrar att liknande incidenter händer andra. Företaget introducerade en ny lösning baserad på GPT-4-modellen - Security Copilot hjälper företagskunder att hantera hot.

Microsoft Security Copilot

Än så länge är verktyget endast tillgängligt för företagskunder. Samma stora språkmodell som driver appar som Bing Chat ligger bakom Security Copilot. Men i det här fallet talar vi om ett alternativ som är speciellt utbildat på material och terminologi som används av IT-proffs. Dessutom har Microsoft redan integrerat Copilot med sina andra säkerhetsverktyg. Företaget lovar att det med tiden kommer att kunna använda mjukvarulösningar från tredje part.

Medan de flesta GPT-4-baserade anpassade applikationer tränades på redan något föråldrade datauppsättningar, får Security Copilot ny information i realtid genom att studera de bokstavligen biljoner hotsignaler som Microsoft tar emot varje dag. Detta är fördelen med modellen - Security Copilot kan känna igen dolda signaler redan innan faktumet av en attack har blivit uppenbart. Tack vare detta kan verktyget användas för att identifiera och i tid eliminera hot.

Microsoft Security Copilot

Samtidigt stod det klart för ganska länge sedan att i AI som ChatGPT, Bing Chat eller Google Bard kan "hallucinationer" uppstå, under vilka helt opålitliga fakta används som grund för "resonemang". På säkerhetsområdet kan detta bli ett mycket farligt fenomen. Microsoft har redan bekräftat att Security Copilot "inte alltid får saker rätt." Lyckligtvis, när det gäller en Microsoft-produkt, finns det en mekanism för användarfeedback, som gör att du kan ge allt mer relevanta svar.

Hittills har Microsoft inte sagt vad som kan hända om defensiv AI kolliderar med skadlig AI, som en designad för att attackera användare och företag. I alla fall sa företaget att företagskunder redan kan testa Security Copilot på ett litet segment av sina användare. Om experimentet lyckas kommer det troligen att kunna hjälpa vanliga användare i framtiden.

Också intressant:

Dzherelomicrosoft

Andra artiklar

Bli Medlem
Meddela om
gäst

0 Kommentarer
Inbäddade recensioner
Visa alla kommentarer

Prenumerera för uppdateringar

Populärt nu