인공 지능(AI) 시스템은 이미 그래픽, 챗봇을 만들고 스마트 홈을 제어하는 데 사용되고 있습니다. Microsoft는 AI에게 현대 생활의 가장 중요한 영역 중 하나인 사이버 위협으로부터의 보호를 맡겼습니다. Security Copilot 도구를 사용하면 명백한 징후가 없는 경우에도 사이버 공격을 인식하고 제거하는 데 도움이 됩니다.
어떤 이유로 컴퓨터의 보안이 손상되는 상황에서 Security Copilot은 발생한 일, 수행할 작업 및 유사한 사고가 다른 사람에게 발생하지 않도록 방지하는 방법을 결정하는 데 도움을 줍니다. 이 회사는 GPT-4 모델을 기반으로 하는 새로운 솔루션인 Security Copilot을 도입하여 기업 고객이 위협에 대처할 수 있도록 지원합니다.
지금까지 이 도구는 기업 고객만 사용할 수 있습니다. Bing Chat과 같은 앱을 지원하는 동일한 큰 언어 모델이 Security Copilot 뒤에 있습니다. 그러나이 경우 IT 전문가가 사용하는 자료 및 용어에 대해 특별히 교육받은 옵션에 대해 이야기하고 있습니다. 또한 Microsoft는 이미 Copilot을 다른 보안 도구와 통합했습니다. 회사는 시간이 지남에 따라 타사 소프트웨어 솔루션을 사용할 수 있을 것이라고 약속합니다.
대부분의 GPT-4 기반 사용자 지정 응용 프로그램은 이미 다소 오래된 데이터 세트에서 교육을 받았지만 Security Copilot은 Microsoft가 매일 수신하는 문자 그대로 수조 개의 위협 신호를 연구하여 실시간으로 새로운 정보를 얻습니다. 이것이 이 모델의 장점입니다. Security Copilot은 공격 사실이 명백해지기 전에도 숨겨진 신호를 인식할 수 있습니다. 덕분에 이 도구를 사용하여 위협을 인식하고 적시에 제거할 수 있습니다.
동시에 ChatGPT, Bing Chat 또는 Google Bard와 같은 AI에서 완전히 신뢰할 수 없는 사실을 "추론"의 기초로 사용하는 "환각"이 발생할 수 있다는 것이 꽤 오래 전에 분명해졌습니다. 보안 분야에서 이것은 매우 위험한 현상이 될 수 있습니다. Microsoft는 이미 Security Copilot이 "항상 제대로 작동하는 것은 아님"을 확인했습니다. 다행스럽게도 Microsoft 제품의 경우 사용자 피드백을 위한 메커니즘이 있어 점점 관련성이 높은 답변을 제공할 수 있습니다.
지금까지 Microsoft는 방어적인 AI가 사용자와 비즈니스를 공격하도록 설계된 것과 같은 악의적인 AI와 충돌할 경우 어떤 일이 발생할 수 있는지에 대해 언급하지 않았습니다. 어쨌든 회사는 기업 고객이 이미 일부 사용자에 대해 Security Copilot을 테스트할 수 있다고 말했습니다. 실험이 성공한다면 앞으로 일반 사용자들에게 도움이 될 수 있을 것 같습니다.
또한 흥미로운 점: