Sistemele de inteligență artificială (AI) sunt deja folosite pentru a crea grafică, chatbot și chiar pentru a controla casele inteligente. Microsoft a încredințat inteligenței artificiale unul dintre cele mai importante domenii ale vieții moderne – protecția împotriva amenințărilor cibernetice. Instrumentul Security Copilot vă permite să recunoașteți un atac cibernetic chiar și atunci când nu există semne evidente și ajută la eliminarea acestuia.
În situațiile în care securitatea computerului dvs. este compromisă dintr-un anumit motiv, Security Copilot vă va ajuta să determinați ce s-a întâmplat, ce să faceți și cum să preveniți incidente similare să se întâmple altora. Compania a introdus o nouă soluție bazată pe modelul GPT-4 - Security Copilot ajută clienții corporativi să facă față amenințărilor.
Până acum, instrumentul este disponibil doar clienților corporativi. Același model de limbaj mare care alimentează aplicații precum Bing Chat se află în spatele Security Copilot. Totuși, în acest caz vorbim despre o opțiune special instruită pe materialele și terminologia folosită de profesioniștii IT. În plus, Microsoft a integrat deja Copilot cu celelalte instrumente de securitate ale sale. Compania promite că în timp va putea folosi soluții software de la terți.
În timp ce majoritatea aplicațiilor personalizate bazate pe GPT-4 au fost instruite pe seturi de date deja oarecum învechite, Security Copilot obține informații noi în timp real, studiind literalmente trilioane de semnale de amenințare pe care Microsoft le primește în fiecare zi. Acesta este avantajul modelului - Security Copilot poate recunoaște semnalele ascunse chiar înainte ca faptul unui atac să devină evident. Datorită acestui lucru, instrumentul poate fi utilizat pentru a recunoaște și a elimina în timp util amenințările.
În același timp, a devenit clar în urmă cu ceva timp că în AI precum ChatGPT, Bing Chat sau Google Bard pot apărea „halucinații”, în timpul cărora fapte complet nesigure sunt folosite ca bază pentru „raționament”. În domeniul securității, acesta poate deveni un fenomen foarte periculos. Microsoft a confirmat deja că Security Copilot „nu face întotdeauna lucrurile corect”. Din fericire, în cazul unui produs Microsoft, există un mecanism de feedback al utilizatorilor, care vă permite să oferiți răspunsuri din ce în ce mai relevante.
Până acum, Microsoft nu a spus ce s-ar putea întâmpla dacă AI defensiv se ciocnește de AI rău intenționat, cum ar fi unul conceput pentru a ataca utilizatorii și companiile. În orice caz, compania a spus că clienții întreprinderilor pot testa deja Security Copilot pe un segment mic de utilizatori. Dacă experimentul are succes, probabil că va putea ajuta utilizatorii obișnuiți în viitor.
Interesant de asemenea:
- Magazinul Microsoft din Windows 11 vă va permite să instalați aplicații prin rezultatele căutării
- Bing Chat de la Microsoft începe să integreze reclamele în răspunsuri