Root NationНовиниIT-uutisiaMicrosoft julkisti suojaavan tekoälyratkaisun, joka perustuu GPT-4 Security Copilotiin

Microsoft julkisti suojaavan tekoälyratkaisun, joka perustuu GPT-4 Security Copilotiin

-

Tekoälyjärjestelmiä (AI) käytetään jo grafiikan, chatbottien ja jopa älykotien ohjaamiseen. Microsoft uskoi tekoälyn yhden modernin elämän tärkeimmistä osa-alueista – suojauksen kyberuhkia vastaan. Security Copilot -työkalun avulla voit tunnistaa kyberhyökkäyksen, vaikka siinä ei olisi ilmeisiä merkkejä, ja auttaa sen poistamisessa.

Tilanteissa, joissa tietokoneesi turvallisuus on jostain syystä vaarantunut, Security Copilot auttaa sinua määrittämään, mitä tapahtui, mitä tehdä ja miten estää vastaavia tapauksia muille. Yhtiö esitteli uuden GPT-4-malliin perustuvan ratkaisun - Security Copilot auttaa yritysasiakkaita käsittelemään uhkia.

Microsoft Security Copilot

Toistaiseksi työkalu on vain yritysasiakkaiden käytettävissä. Security Copilotin takana on sama iso kielimalli, joka käyttää Bing Chatin kaltaisia ​​sovelluksia. Tässä tapauksessa puhumme kuitenkin vaihtoehdosta, joka on erityisesti koulutettu IT-ammattilaisten käyttämiin materiaaleihin ja terminologiaan. Lisäksi Microsoft on jo integroinut Copilotin muihin tietoturvatyökaluihinsa. Yhtiö lupaa, että ajan myötä se voi käyttää kolmannen osapuolen ohjelmistoratkaisuja.

Vaikka useimmat GPT-4-pohjaiset mukautetut sovellukset on koulutettu jo jonkin verran vanhentuneisiin tietokokonaisuuksiin, Security Copilot saa uutta tietoa reaaliajassa tutkimalla kirjaimellisesti biljoonia uhkasignaaleja, joita Microsoft vastaanottaa päivittäin. Tämä on mallin etu - Security Copilot pystyy tunnistamaan piilotetut signaalit jo ennen kuin hyökkäyksen tosiasia on tullut selväksi. Tämän ansiosta työkalua voidaan käyttää uhkien tunnistamiseen ja ajoissa poistamiseen.

Microsoft Security Copilot

Samalla kävi jo jonkin aikaa sitten selväksi, että ChatGPT:n, Bing Chatin tai Google Bardin kaltaisissa tekoälyissä voi esiintyä "hallusinaatioita", joiden aikana "päättelyn" perustana käytetään täysin epäluotettavia faktoja. Turvallisuuden alalla tästä voi tulla erittäin vaarallinen ilmiö. Microsoft on jo vahvistanut, että Security Copilot "ei aina saa asioita oikein". Onneksi Microsoft-tuotteen kohdalla on olemassa mekanismi käyttäjien palautteen antamiseen, jonka avulla voit antaa yhä osuvampia vastauksia.

Toistaiseksi Microsoft ei ole kertonut, mitä voisi tapahtua, jos puolustava tekoäly törmää haitalliseen tekoälyyn, kuten sellaiseen, joka on suunniteltu hyökkäämään käyttäjiä ja yrityksiä vastaan. Joka tapauksessa yritys sanoi, että yritysasiakkaat voivat jo testata Security Copilotia pienellä osalla käyttäjiään. Jos kokeilu onnistuu, se voi todennäköisesti auttaa tavallisia käyttäjiä tulevaisuudessa.

Mielenkiintoista myös:

Dzherelomicrosoft
Muut artikkelit
Kirjaudu
Ilmoita asiasta
vieras

0 Kommentit
Upotetut arvostelut
Näytä kaikki kommentit
Tilaa päivityksiä
Suosittu nyt