Root NationНовиниnotícias de TIA Microsoft anunciou uma solução protetora de IA baseada no GPT-4 Security Copilot

A Microsoft anunciou uma solução protetora de IA baseada no GPT-4 Security Copilot

-

Sistemas de inteligência artificial (IA) já estão sendo usados ​​para criar gráficos, chatbots e até mesmo controlar casas inteligentes. A Microsoft confiou à IA uma das áreas mais importantes da vida moderna – proteção contra ameaças cibernéticas. A ferramenta Security Copilot permite reconhecer um ataque cibernético mesmo quando não há sinais óbvios e ajuda na sua eliminação.

Em situações em que a segurança do seu computador é comprometida por algum motivo, o Security Copilot o ajudará a determinar o que aconteceu, o que fazer e como evitar que incidentes semelhantes aconteçam com outras pessoas. A empresa apresentou uma nova solução baseada no modelo GPT-4 - o Security Copilot ajuda clientes corporativos a lidar com ameaças.

Copiloto de segurança da Microsoft

Até o momento, a ferramenta está disponível apenas para clientes corporativos. O mesmo grande modelo de linguagem que alimenta aplicativos como o Bing Chat está por trás do Security Copilot. No entanto, neste caso, estamos falando de uma opção especialmente treinada nos materiais e na terminologia utilizada pelos profissionais de TI. Além disso, a Microsoft já integrou o Copilot com suas outras ferramentas de segurança. A empresa promete que, com o tempo, poderá usar soluções de software de terceiros.

Enquanto a maioria dos aplicativos personalizados baseados em GPT-4 foram treinados em conjuntos de dados já um tanto desatualizados, o Security Copilot obtém novas informações em tempo real ao estudar literalmente trilhões de sinais de ameaças que a Microsoft recebe todos os dias. Esta é a vantagem do modelo - o Security Copilot pode reconhecer sinais ocultos mesmo antes que o fato de um ataque se torne óbvio. Graças a isso, a ferramenta pode ser usada para reconhecer e eliminar ameaças em tempo hábil.

Copiloto de segurança da Microsoft

Ao mesmo tempo, ficou claro há algum tempo que em IA como ChatGPT, Bing Chat ou Google Bard, podem ocorrer "alucinações", durante as quais fatos completamente não confiáveis ​​são usados ​​como base para o "raciocínio". No campo da segurança, isso pode se tornar um fenômeno muito perigoso. A Microsoft já confirmou que o Security Copilot "nem sempre acerta as coisas". Felizmente, no caso de um produto Microsoft, existe um mecanismo de feedback do usuário, que permite fornecer respostas cada vez mais relevantes.

Até agora, a Microsoft não disse o que pode acontecer se a IA defensiva colidir com uma IA maliciosa, como uma projetada para atacar usuários e empresas. De qualquer forma, a empresa disse que os clientes corporativos já podem testar o Security Copilot em um pequeno segmento de seus usuários. Se o experimento for bem-sucedido, provavelmente poderá ajudar usuários comuns no futuro.

Também interessante:

Dzherelomicrosoft

Outros artigos

Inscrever-se
Notificar sobre
convidado

0 Comentários
Avaliações incorporadas
Ver todos os comentários

Inscreva-se para atualizações

Popular agora