Արհեստական ինտելեկտի (AI) համակարգերն արդեն օգտագործվում են գրաֆիկայի, չաթ-բոտերի ստեղծման և նույնիսկ խելացի տների կառավարման համար: Microsoft-ը AI-ին վստահել է ժամանակակից կյանքի կարևորագույն ոլորտներից մեկը՝ պաշտպանությունը կիբեր սպառնալիքներից: Security Copilot գործիքը թույլ է տալիս ճանաչել կիբեր հարձակումը նույնիսկ այն դեպքում, երբ ակնհայտ նշաններ չկան և օգնում է դրա վերացմանը:
Այն իրավիճակներում, երբ ձեր համակարգչի անվտանգությունը ինչ-ինչ պատճառներով վտանգված է, Security Copilot-ը կօգնի ձեզ որոշել, թե ինչ է տեղի ունեցել, ինչ անել և ինչպես կանխել նմանատիպ միջադեպերը ուրիշների հետ: Ընկերությունը ներկայացրել է GPT-4 մոդելի վրա հիմնված նոր լուծում՝ Security Copilot-ն օգնում է կորպորատիվ հաճախորդներին դիմակայել սպառնալիքներին:
Առայժմ գործիքը հասանելի է միայն կորպորատիվ հաճախորդներին: Նույն մեծ լեզվի մոդելը, որն ապահովում է Bing Chat-ի նման հավելվածները, գտնվում է Security Copilot-ի հետևում: Այնուամենայնիվ, այս դեպքում խոսքը գնում է ՏՏ ոլորտի մասնագետների կողմից օգտագործվող նյութերի և տերմինաբանության վրա հատուկ պատրաստված տարբերակի մասին։ Բացի այդ, Microsoft-ն արդեն ինտեգրել է Copilot-ն իր անվտանգության այլ գործիքների հետ։ Ընկերությունը խոստանում է, որ ժամանակի ընթացքում կկարողանա օգտագործել երրորդ կողմի ծրագրային լուծումներ։
Մինչ GPT-4-ի վրա հիմնված մաքսային հավելվածների մեծ մասը վերապատրաստվել է արդեն որոշակիորեն հնացած տվյալների հավաքածուների վրա, Security Copilot-ը նոր տեղեկատվություն է ստանում իրական ժամանակում՝ ուսումնասիրելով բառացիորեն տրիլիոնավոր սպառնալիքների ազդանշանները, որոնք Microsoft-ը ստանում է ամեն օր: Սա մոդելի առավելությունն է. Security Copilot-ը կարող է ճանաչել թաքնված ազդանշանները նույնիսկ նախքան հարձակման փաստն ակնհայտ դառնալը: Դրա շնորհիվ գործիքը կարող է օգտագործվել սպառնալիքները ճանաչելու և ժամանակին վերացնելու համար:
Միևնույն ժամանակ, բավական ժամանակ առաջ պարզ դարձավ, որ արհեստական ինտելեկտում, ինչպիսիք են ChatGPT-ը, Bing Chat-ը կամ Google Bard-ը, կարող են առաջանալ «հալյուցինացիաներ», որոնց ժամանակ «պատճառաբանելու» հիմք են դրվում բոլորովին անհուսալի փաստեր։ Անվտանգության ոլորտում սա կարող է շատ վտանգավոր երեւույթ դառնալ։ Microsoft-ն արդեն հաստատել է, որ Security Copilot-ը «միշտ չէ, որ ամեն ինչ ճիշտ է անում»: Բարեբախտաբար, Microsoft-ի արտադրանքի դեպքում գոյություն ունի օգտատերերի հետադարձ կապի մեխանիզմ, որը թույլ է տալիս տալ ավելի ու ավելի համապատասխան պատասխաններ:
Մինչ այժմ Microsoft-ը չի ասել, թե ինչ կարող է տեղի ունենալ, եթե պաշտպանական AI-ն բախվի վնասակար AI-ի հետ, ինչպիսին է, որը նախատեսված է օգտատերերի և բիզնեսի վրա հարձակվելու համար: Ամեն դեպքում, ընկերությունն ասաց, որ ձեռնարկությունների հաճախորդներն արդեն կարող են փորձարկել Security Copilot-ը իրենց օգտատերերի փոքր հատվածի վրա: Եթե փորձը հաջող լինի, ապա, հավանաբար, ապագայում այն կկարողանա օգնել սովորական օգտատերերին։
Հետաքրքիր է նաև.
- Windows 11-ի Microsoft Store-ը թույլ կտա ձեզ հավելվածներ տեղադրել որոնման արդյունքների միջոցով
- Microsoft-ի Bing Chat-ը սկսում է գովազդը ինտեգրել պատասխանների մեջ