Root NationНовиниGiornale informaticoMicrosoft ha annunciato una soluzione AI protettiva basata su GPT-4 Security Copilot

Microsoft ha annunciato una soluzione AI protettiva basata su GPT-4 Security Copilot

-

I sistemi di intelligenza artificiale (AI) sono già utilizzati per creare grafica, chatbot e persino controllare case intelligenti. Microsoft ha affidato all'IA una delle aree più importanti della vita moderna: la protezione dalle minacce informatiche. Lo strumento Security Copilot permette di riconoscere un attacco informatico anche quando non ci sono segnali evidenti e aiuta nella sua eliminazione.

In situazioni in cui la sicurezza del tuo computer è compromessa per qualche motivo, Security Copilot ti aiuterà a determinare cosa è successo, cosa fare e come evitare che incidenti simili accadano ad altri. L'azienda ha introdotto una nuova soluzione basata sul modello GPT-4: Security Copilot aiuta i clienti aziendali a gestire le minacce.

Copilota di sicurezza Microsoft

Finora, lo strumento è disponibile solo per i clienti aziendali. Lo stesso grande modello linguistico che alimenta app come Bing Chat è alla base di Security Copilot. Tuttavia, in questo caso stiamo parlando di un'opzione appositamente addestrata sui materiali e sulla terminologia utilizzata dai professionisti IT. Inoltre, Microsoft ha già integrato Copilot con i suoi altri strumenti di sicurezza. L'azienda promette che nel tempo sarà in grado di utilizzare soluzioni software di terze parti.

Mentre la maggior parte delle applicazioni personalizzate basate su GPT-4 è stata addestrata su set di dati già in qualche modo obsoleti, Security Copilot ottiene nuove informazioni in tempo reale studiando letteralmente i trilioni di segnali di minaccia che Microsoft riceve ogni giorno. Questo è il vantaggio del modello: Security Copilot è in grado di riconoscere i segnali nascosti anche prima che il fatto di un attacco diventi evidente. Grazie a ciò, lo strumento può essere utilizzato per riconoscere ed eliminare tempestivamente le minacce.

Copilota di sicurezza Microsoft

Allo stesso tempo, è diventato chiaro da tempo che in AI come ChatGPT, Bing Chat o Google Bard possono verificarsi "allucinazioni", durante le quali fatti completamente inaffidabili vengono utilizzati come base per il "ragionamento". Nel campo della sicurezza, questo può diventare un fenomeno molto pericoloso. Microsoft ha già confermato che Security Copilot "non sempre fa le cose per bene". Per fortuna, nel caso di un prodotto Microsoft, esiste un meccanismo per il feedback degli utenti, che permette di fornire risposte sempre più pertinenti.

Finora, Microsoft non ha detto cosa potrebbe accadere se l'IA difensiva si scontra con l'IA dannosa, come quella progettata per attaccare utenti e aziende. In ogni caso, la società ha affermato che i clienti aziendali possono già testare Security Copilot su un piccolo segmento dei propri utenti. Se l'esperimento avrà successo, sarà probabilmente in grado di aiutare gli utenti ordinari in futuro.

Interessante anche:

Altri articoli
Iscrizione
Avvisare su
ospite

0 Commenti
Recensioni incorporate
Visualizza tutti i commenti
Iscriviti per gli aggiornamenti
Popolare ora