Root NationHaberlerBT haberleriMicrosoft GPT-4 Security Copilot'u temel alan koruyucu bir yapay zeka çözümünü duyurdu

Microsoft GPT-4 Security Copilot'u temel alan koruyucu bir yapay zeka çözümünü duyurdu

-

Yapay zeka (AI) sistemleri halihazırda grafikler, sohbet robotları oluşturmak ve hatta akıllı evleri kontrol etmek için kullanılıyor. Şirket Microsoft Yapay zekaya modern yaşamın en önemli alanlarından birini, yani siber tehditlere karşı korumayı emanet ettik. Security Copilot aracı, hiçbir belirgin işaret olmadığında bile bir siber saldırıyı fark etmenize olanak tanır ve ortadan kaldırılmasına yardımcı olur.

Herhangi bir nedenle bilgisayarınızın güvenliğinin tehlikeye girdiği durumlarda Security Copilot, ne olduğunu, ne yapılması gerektiğini ve benzer olayların başkalarının başına gelmesini nasıl önleyeceğinizi belirlemenize yardımcı olur. Şirket, GPT-4 modeline dayalı yeni bir çözüm sundu - Security Copilot, kurumsal müşterilerin tehditlerle başa çıkmasına yardımcı olur.

Microsoft Güvenlik Yardımcı Pilotu

Araç şu ana kadar yalnızca kurumsal müşterilerin kullanımına sunuldu. Bing Chat gibi uygulamalara güç veren aynı büyük dil modeli, Security Copilot'un arkasındadır. Ancak bu durumda, BT profesyonellerinin kullandığı materyaller ve terminoloji konusunda özel olarak eğitilmiş bir seçenekten bahsediyoruz. Ek olarak, Microsoft Copilot'u diğer güvenlik araçlarıyla zaten entegre etmiştir. Şirket, zamanla üçüncü taraf yazılım çözümlerini kullanabileceğinin sözünü veriyor.

GPT-4 tabanlı özel uygulamaların çoğu, biraz güncelliğini kaybetmiş veri kümeleri üzerinde eğitilmiş olsa da, Security Copilot, kelimenin tam anlamıyla trilyonlarca tehdit sinyalini inceleyerek gerçek zamanlı olarak yeni bilgiler elde ediyor. Microsoft günlük olarak alır. Bu, modelin avantajıdır - Security Copilot, bir saldırının gerçeği açıkça ortaya çıkmadan önce bile gizli sinyalleri tanıyabilir. Bu sayede araç, tehditleri tanımak ve zamanında ortadan kaldırmak için kullanılabilir.

Microsoft Güvenlik Yardımcı Pilotu

Aynı zamanda, ChatGPT, Bing Chat veya Google Bard gibi yapay zekaların, tamamen güvenilmez gerçeklerin "akıl yürütme" için temel olarak kullanıldığı "halüsinasyonlara" sahip olabileceği, bir süre önce açıklığa kavuştu. Güvenlik alanında bu çok tehlikeli bir olgu haline gelebilir. İÇİNDE Microsoft Security Copilot'un "işleri her zaman doğru yapmadığını" zaten doğruladım. Neyse ki, ürün söz konusu olduğunda Microsoft giderek daha alakalı yanıtlar sağlamak için bir kullanıcı geri bildirim mekanizması sağlanır.

Henüz Microsoft Savunma amaçlı yapay zekanın, kullanıcılara ve işletmelere saldırmak için tasarlanmış kötü amaçlı yapay zekayla çarpışması durumunda ne olabileceğini bildirmedi. Her durumda şirket, kurumsal müşterilerin Security Copilot'u kullanıcılarının küçük bir bölümü üzerinde zaten test edebileceğini söyledi. Deney başarılı olursa muhtemelen gelecekte sıradan kullanıcılara da yardımcı olabilecektir.

Ayrıca ilginç:

Dzherelomicrosoft
Üye olmak
hakkında bilgilendir
konuk

0 Yorumlar
Gömülü İncelemeler
Tüm yorumları görüntüle