Root NationНовиниՏՏ նորություններMicrosoft-ը հայտարարեց պաշտպանիչ AI լուծում՝ հիմնված GPT-4 Security Copilot-ի վրա

Microsoft-ը հայտարարեց պաշտպանիչ AI լուծում՝ հիմնված GPT-4 Security Copilot-ի վրա

-

Արհեստական ​​ինտելեկտի (AI) համակարգերն արդեն օգտագործվում են գրաֆիկայի, չաթ-բոտերի ստեղծման և նույնիսկ խելացի տների կառավարման համար: Microsoft-ը AI-ին վստահել է ժամանակակից կյանքի կարևորագույն ոլորտներից մեկը՝ պաշտպանությունը կիբեր սպառնալիքներից: Security Copilot գործիքը թույլ է տալիս ճանաչել կիբեր հարձակումը նույնիսկ այն դեպքում, երբ ակնհայտ նշաններ չկան և օգնում է դրա վերացմանը:

Այն իրավիճակներում, երբ ձեր համակարգչի անվտանգությունը ինչ-ինչ պատճառներով վտանգված է, Security Copilot-ը կօգնի ձեզ որոշել, թե ինչ է տեղի ունեցել, ինչ անել և ինչպես կանխել նմանատիպ միջադեպերը ուրիշների հետ: Ընկերությունը ներկայացրել է GPT-4 մոդելի վրա հիմնված նոր լուծում՝ Security Copilot-ն օգնում է կորպորատիվ հաճախորդներին դիմակայել սպառնալիքներին:

Microsoft Security Copilot

Առայժմ գործիքը հասանելի է միայն կորպորատիվ հաճախորդներին: Նույն մեծ լեզվի մոդելը, որն ապահովում է Bing Chat-ի նման հավելվածները, գտնվում է Security Copilot-ի հետևում: Այնուամենայնիվ, այս դեպքում խոսքը գնում է ՏՏ ոլորտի մասնագետների կողմից օգտագործվող նյութերի և տերմինաբանության վրա հատուկ պատրաստված տարբերակի մասին։ Բացի այդ, Microsoft-ն արդեն ինտեգրել է Copilot-ն իր անվտանգության այլ գործիքների հետ։ Ընկերությունը խոստանում է, որ ժամանակի ընթացքում կկարողանա օգտագործել երրորդ կողմի ծրագրային լուծումներ։

Մինչ GPT-4-ի վրա հիմնված մաքսային հավելվածների մեծ մասը վերապատրաստվել է արդեն որոշակիորեն հնացած տվյալների հավաքածուների վրա, Security Copilot-ը նոր տեղեկատվություն է ստանում իրական ժամանակում՝ ուսումնասիրելով բառացիորեն տրիլիոնավոր սպառնալիքների ազդանշանները, որոնք Microsoft-ը ստանում է ամեն օր: Սա մոդելի առավելությունն է. Security Copilot-ը կարող է ճանաչել թաքնված ազդանշանները նույնիսկ նախքան հարձակման փաստն ակնհայտ դառնալը: Դրա շնորհիվ գործիքը կարող է օգտագործվել սպառնալիքները ճանաչելու և ժամանակին վերացնելու համար:

Microsoft Security Copilot

Միևնույն ժամանակ, բավական ժամանակ առաջ պարզ դարձավ, որ արհեստական ​​ինտելեկտում, ինչպիսիք են ChatGPT-ը, Bing Chat-ը կամ Google Bard-ը, կարող են առաջանալ «հալյուցինացիաներ», որոնց ժամանակ «պատճառաբանելու» հիմք են դրվում բոլորովին անհուսալի փաստեր։ Անվտանգության ոլորտում սա կարող է շատ վտանգավոր երեւույթ դառնալ։ Microsoft-ն արդեն հաստատել է, որ Security Copilot-ը «միշտ չէ, որ ամեն ինչ ճիշտ է անում»: Բարեբախտաբար, Microsoft-ի արտադրանքի դեպքում գոյություն ունի օգտատերերի հետադարձ կապի մեխանիզմ, որը թույլ է տալիս տալ ավելի ու ավելի համապատասխան պատասխաններ:

Մինչ այժմ Microsoft-ը չի ասել, թե ինչ կարող է տեղի ունենալ, եթե պաշտպանական AI-ն բախվի վնասակար AI-ի հետ, ինչպիսին է, որը նախատեսված է օգտատերերի և բիզնեսի վրա հարձակվելու համար: Ամեն դեպքում, ընկերությունն ասաց, որ ձեռնարկությունների հաճախորդներն արդեն կարող են փորձարկել Security Copilot-ը իրենց օգտատերերի փոքր հատվածի վրա: Եթե ​​փորձը հաջող լինի, ապա, հավանաբար, ապագայում այն ​​կկարողանա օգնել սովորական օգտատերերին։

Հետաքրքիր է նաև.

ԱղբյուրMicrosoft-ը

Այլ հոդվածներ

Գրանցվել
Տեղեկացնել մասին
հյուր

0 մեկնաբանություններ
Ներկառուցված ակնարկներ
Դիտել բոլոր մեկնաբանությունները

Բաժանորդագրվեք թարմացումների համար

Հանրաճանաչ հիմա