Root NationНовиниIT სიახლეებიMicrosoft-მა გამოაცხადა დამცავი AI გადაწყვეტა, რომელიც დაფუძნებულია GPT-4 Security Copilot-ზე

Microsoft-მა გამოაცხადა დამცავი AI გადაწყვეტა, რომელიც დაფუძნებულია GPT-4 Security Copilot-ზე

-

ხელოვნური ინტელექტის (AI) სისტემები უკვე გამოიყენება გრაფიკის, ჩეთბოტების შესაქმნელად და ჭკვიანი სახლების გასაკონტროლებლად. მაიკროსოფტმა AI-ს მიანდო თანამედროვე ცხოვრების ერთ-ერთი ყველაზე მნიშვნელოვანი სფერო – დაცვა კიბერ საფრთხეებისგან. Security Copilot ინსტრუმენტი საშუალებას გაძლევთ ამოიცნოთ კიბერშეტევა მაშინაც კი, როცა აშკარა ნიშნები არ არის და გეხმარებათ მის აღმოფხვრაში.

იმ სიტუაციებში, როდესაც თქვენი კომპიუტერის უსაფრთხოება რაიმე მიზეზით დაზიანებულია, Security Copilot დაგეხმარებათ განსაზღვროთ, რა მოხდა, რა უნდა გააკეთოთ და როგორ თავიდან აიცილოთ მსგავსი ინციდენტები სხვებისთვის. კომპანიამ GPT-4 მოდელზე დაფუძნებული ახალი გადაწყვეტა წარადგინა - Security Copilot ეხმარება კორპორატიულ კლიენტებს საფრთხეებთან გამკლავებაში.

Microsoft Security Copilot

ჯერჯერობით, ინსტრუმენტი ხელმისაწვდომია მხოლოდ კორპორატიული მომხმარებლებისთვის. იგივე დიდი ენის მოდელი, რომელიც აძლიერებს აპებს, როგორიცაა Bing Chat, დგას Security Copilot-ის უკან. თუმცა, ამ შემთხვევაში საუბარია IT პროფესიონალების მიერ გამოყენებულ მასალებზე და ტერმინოლოგიაზე სპეციალურად მომზადებულ ვარიანტზე. გარდა ამისა, Microsoft-მა უკვე გააერთიანა Copilot უსაფრთხოების სხვა ინსტრუმენტებთან. კომპანია გვპირდება, რომ დროთა განმავლობაში შეძლებს მესამე მხარის პროგრამული გადაწყვეტილებების გამოყენებას.

მიუხედავად იმისა, რომ GPT-4-ზე დაფუძნებული პერსონალური აპლიკაციების უმეტესობა გაწვრთნილი იყო უკვე გარკვეულწილად მოძველებულ მონაცემთა ნაკრებებზე, Security Copilot იძენს ახალ ინფორმაციას რეალურ დროში, ფაქტიურად ტრილიონობით საფრთხის სიგნალის შესწავლით, რომელსაც Microsoft ყოველდღიურად იღებს. ეს არის მოდელის უპირატესობა - უსაფრთხოების კოპილოტს შეუძლია ფარული სიგნალების ამოცნობა მანამდეც, სანამ თავდასხმის ფაქტი აშკარა გახდება. ამის წყალობით, ინსტრუმენტი შეიძლება გამოყენებულ იქნას საფრთხეების ამოცნობისა და დროულად აღმოსაფხვრელად.

Microsoft Security Copilot

ამავდროულად, საკმაოდ დიდი ხნის წინ გაირკვა, რომ AI-ში, როგორიცაა ChatGPT, Bing Chat ან Google Bard, შეიძლება მოხდეს „ჰალუცინაციები“, რომლის დროსაც სრულიად არასანდო ფაქტები გამოიყენება „მსჯელობის“ საფუძვლად. უსაფრთხოების სფეროში ეს შეიძლება გახდეს ძალიან საშიში ფენომენი. მაიკროსოფტმა უკვე დაადასტურა, რომ უსაფრთხოების კოპილოტი „ყოველთვის არ ასწორებს საქმეს“. საბედნიეროდ, Microsoft-ის პროდუქტის შემთხვევაში, არსებობს მომხმარებელთა გამოხმაურების მექანიზმი, რომელიც გაძლევს მზარდი შესაბამისი პასუხების გაცემის საშუალებას.

ჯერჯერობით, Microsoft-ს არ უთქვამს, რა შეიძლება მოხდეს, თუ თავდაცვითი AI დაეჯახება მავნე AI-ს, როგორიცაა ის, რომელიც შექმნილია მომხმარებლებისა და ბიზნესების თავდასხმისთვის. ნებისმიერ შემთხვევაში, კომპანიამ განაცხადა, რომ საწარმოს მომხმარებლებს უკვე შეუძლიათ უსაფრთხოების კოპილოტის ტესტირება მათი მომხმარებლების მცირე სეგმენტზე. თუ ექსპერიმენტი წარმატებული იქნება, ის, ალბათ, მომავალში შეძლებს რიგითი მომხმარებლების დახმარებას.

ასევე საინტერესოა:

ჯერილოMicrosoft

სხვა სტატიები

დარეგისტრირდით
შეატყობინეთ შესახებ
სასტუმრო

0 კომენტარები
ჩაშენებული მიმოხილვები
ყველა კომენტარის ნახვა

გამოიწერეთ განახლებები

პოპულარული ახლა