Root NationNyheterIT-nyheterMicrosoft tillkännagav en skyddande AI-lösning baserad på GPT-4 Security Copilot

Microsoft tillkännagav en skyddande AI-lösning baserad på GPT-4 Security Copilot

-

Artificiell intelligens (AI)-system används redan för att skapa grafik, chatbots och till och med styra smarta hem. Företag Microsoft anförtrott AI en av de viktigaste sfärerna i det moderna livet – skydd mot cyberhot. Security Copilot-verktyget låter dig känna igen en cyberattack även när det inte finns några uppenbara tecken och hjälper till att eliminera den.

I situationer där din dators säkerhet äventyras av någon anledning, hjälper Security Copilot dig att avgöra vad som hände, vad du ska göra och hur du förhindrar att liknande incidenter händer andra. Företaget introducerade en ny lösning baserad på GPT-4-modellen - Security Copilot hjälper företagskunder att hantera hot.

Microsoft Säkerhetscopilot

Än så länge är verktyget endast tillgängligt för företagskunder. Samma stora språkmodell som driver appar som Bing Chat ligger bakom Security Copilot. Men i det här fallet talar vi om ett alternativ som är speciellt utbildat på material och terminologi som används av IT-proffs. Dessutom, Microsoft har redan integrerat Copilot med sina andra säkerhetsverktyg. Företaget lovar att det med tiden kommer att kunna använda mjukvarulösningar från tredje part.

Medan de flesta GPT-4-baserade anpassade applikationer tränades på något föråldrade datauppsättningar, får Security Copilot ny information i realtid genom att studera bokstavligen biljoner hotsignaler som Microsoft får dagligen. Detta är fördelen med modellen - Security Copilot kan känna igen dolda signaler redan innan faktumet av en attack har blivit uppenbart. Tack vare detta kan verktyget användas för att identifiera och i tid eliminera hot.

Microsoft Säkerhetscopilot

Samtidigt blev det klart för ett tag sedan att AI:er som ChatGPT, Bing Chat eller Google Bard kan ha "hallucinationer" under vilka helt opålitliga fakta används som grund för "resonemang". På säkerhetsområdet kan detta bli ett mycket farligt fenomen. I Microsoft har redan bekräftat att Security Copilot "inte alltid får saker rätt." Lyckligtvis när det gäller produkten Microsoft en återkopplingsmekanism för användare tillhandahålls för att ge allt mer relevanta svar.

Än Microsoft rapporterade inte vad som kan hända när defensiv AI kolliderar med skadlig AI, till exempel en designad för att attackera användare och företag. I alla fall sa företaget att företagskunder redan kan testa Security Copilot på ett litet segment av sina användare. Om experimentet lyckas kommer det troligen att kunna hjälpa vanliga användare i framtiden.

Också intressant:

Dzherelomicrosoft
Bli Medlem
Meddela om
gäst

0 Kommentarer
Inbäddade recensioner
Visa alla kommentarer
Andra artiklar
Prenumerera för uppdateringar
Populärt nu