Root Nationຂ່າວຂ່າວໄອທີMicrosoft ປະກາດການແກ້ໄຂ AI ປ້ອງກັນໂດຍອີງໃສ່ GPT-4 Security Copilot

Microsoft ປະກາດການແກ້ໄຂ AI ປ້ອງກັນໂດຍອີງໃສ່ GPT-4 Security Copilot

-

ລະບົບປັນຍາປະດິດ (AI) ຖືກໃຊ້ແລ້ວເພື່ອສ້າງຮູບພາບ, chatbots, ແລະແມ້ກະທັ້ງຄວບຄຸມເຮືອນອັດສະລິຍະ. Microsoft ໄດ້ມອບໃຫ້ AI ເປັນໜຶ່ງໃນບັນດາຂົງເຂດທີ່ສຳຄັນທີ່ສຸດຂອງຊີວິດສະໄໝໃໝ່ - ການປົກປ້ອງໄພຂົ່ມຂູ່ທາງອິນເຕີເນັດ. ເຄື່ອງມືຄວາມປອດໄພ Copilot ຊ່ວຍໃຫ້ທ່ານສາມາດຮັບຮູ້ການໂຈມຕີທາງອິນເຕີເນັດເຖິງແມ່ນວ່າໃນເວລາທີ່ບໍ່ມີສັນຍານທີ່ຊັດເຈນແລະຊ່ວຍໃນການກໍາຈັດຂອງມັນ.

ໃນສະຖານະການທີ່ຄວາມປອດໄພຂອງຄອມພິວເຕີຂອງທ່ານຖືກທໍາລາຍດ້ວຍເຫດຜົນບາງຢ່າງ, Security Copilot ຈະຊ່ວຍໃຫ້ທ່ານກໍານົດສິ່ງທີ່ເກີດຂຶ້ນ, ສິ່ງທີ່ຕ້ອງເຮັດ, ແລະວິທີການປ້ອງກັນເຫດການທີ່ຄ້າຍຄືກັນຈາກຄົນອື່ນ. ບໍລິສັດໄດ້ນໍາສະເຫນີການແກ້ໄຂໃຫມ່ໂດຍອີງໃສ່ຮູບແບບ GPT-4 - Security Copilot ຊ່ວຍໃຫ້ລູກຄ້າຂອງບໍລິສັດຈັດການກັບໄພຂົ່ມຂູ່.

Microsoft Security Copilot

ມາຮອດປະຈຸ, ເຄື່ອງມືດັ່ງກ່າວສາມາດໃຊ້ໄດ້ກັບລູກຄ້າຂອງບໍລິສັດເທົ່ານັ້ນ. ຮູບແບບພາສາໃຫຍ່ດຽວກັນທີ່ຂັບເຄື່ອນແອັບຯເຊັ່ນ Bing Chat ແມ່ນຢູ່ເບື້ອງຫຼັງ Security Copilot. ຢ່າງໃດກໍຕາມ, ໃນກໍລະນີນີ້ພວກເຮົາກໍາລັງເວົ້າກ່ຽວກັບທາງເລືອກທີ່ໄດ້ຮັບການຝຶກອົບຮົມໂດຍສະເພາະກ່ຽວກັບວັດສະດຸແລະຄໍາສັບທີ່ໃຊ້ໂດຍຜູ້ຊ່ຽວຊານດ້ານໄອທີ. ນອກຈາກນັ້ນ, Microsoft ໄດ້ປະສົມປະສານ Copilot ກັບເຄື່ອງມືຄວາມປອດໄພອື່ນໆຂອງມັນແລ້ວ. ບໍລິສັດສັນຍາວ່າໃນໄລຍະເວລາມັນຈະສາມາດນໍາໃຊ້ການແກ້ໄຂຊອບແວຂອງພາກສ່ວນທີສາມ.

ໃນຂະນະທີ່ຄໍາຮ້ອງສະຫມັກແບບກໍາຫນົດເອງທີ່ອີງໃສ່ GPT-4 ສ່ວນໃຫຍ່ໄດ້ຮັບການຝຶກອົບຮົມກ່ຽວກັບຊຸດຂໍ້ມູນທີ່ລ້າສະໄຫມແລ້ວ, Security Copilot ໄດ້ຮັບຂໍ້ມູນໃຫມ່ໃນເວລາຈິງໂດຍການສຶກສາສັນຍານໄພຂົ່ມຂູ່ຫຼາຍພັນຕື້ທີ່ Microsoft ໄດ້ຮັບທຸກໆມື້. ນີ້ແມ່ນຂໍ້ໄດ້ປຽບຂອງຮູບແບບ - Copilot ຄວາມປອດໄພສາມາດຮັບຮູ້ສັນຍານທີ່ເຊື່ອງໄວ້ເຖິງແມ່ນວ່າກ່ອນທີ່ຄວາມເປັນຈິງຂອງການໂຈມຕີໄດ້ກາຍເປັນທີ່ຊັດເຈນ. ຂໍຂອບໃຈກັບນີ້, ເຄື່ອງມືສາມາດຖືກນໍາໃຊ້ເພື່ອຮັບຮູ້ແລະທັນເວລາການລົບລ້າງໄພຂົ່ມຂູ່.

Microsoft Security Copilot

ໃນຂະນະດຽວກັນ, ມັນໄດ້ກາຍເປັນທີ່ຊັດເຈນໃນບາງເວລາກ່ອນຫນ້ານີ້ວ່າໃນ AI ເຊັ່ນ ChatGPT, Bing Chat ຫຼື Google Bard, "ຄວາມແປກໃຈ" ສາມາດເກີດຂື້ນໄດ້, ໃນລະຫວ່າງນັ້ນຄວາມຈິງທີ່ບໍ່ຫນ້າເຊື່ອຖືຢ່າງສົມບູນຖືກນໍາໃຊ້ເປັນພື້ນຖານສໍາລັບ "ເຫດຜົນ". ໃນຂົງເຂດຄວາມປອດໄພ, ນີ້ສາມາດກາຍເປັນປະກົດການອັນຕະລາຍຫຼາຍ. Microsoft ໄດ້ຢືນຢັນແລ້ວວ່າ Security Copilot "ບໍ່ໄດ້ຮັບສິ່ງທີ່ຖືກຕ້ອງສະເໝີໄປ." ໂຊກດີ, ໃນກໍລະນີຂອງຜະລິດຕະພັນ Microsoft, ມີກົນໄກສໍາລັບຄໍາຕິຊົມຂອງຜູ້ໃຊ້, ເຊິ່ງຊ່ວຍໃຫ້ທ່ານສາມາດໃຫ້ຄໍາຕອບທີ່ກ່ຽວຂ້ອງຫຼາຍຂຶ້ນ.

ມາເຖິງຕອນນັ້ນ, Microsoft ຍັງບໍ່ໄດ້ເວົ້າວ່າສິ່ງທີ່ອາດຈະເກີດຂຶ້ນຖ້າຫາກວ່າ AI ປ້ອງກັນ collides ກັບ AI ທີ່ເປັນອັນຕະລາຍ, ເຊັ່ນຫນຶ່ງທີ່ອອກແບບມາເພື່ອໂຈມຕີຜູ້ໃຊ້ແລະທຸລະກິດ. ໃນກໍລະນີໃດກໍ່ຕາມ, ບໍລິສັດກ່າວວ່າລູກຄ້າວິສາຫະກິດສາມາດທົດສອບ Security Copilot ໃນສ່ວນນ້ອຍໆຂອງຜູ້ໃຊ້ຂອງພວກເຂົາ. ຖ້າການທົດລອງປະສົບຜົນສໍາເລັດ, ມັນອາດຈະສາມາດຊ່ວຍຜູ້ໃຊ້ທົ່ວໄປໃນອະນາຄົດ.

ຍັງຫນ້າສົນໃຈ:

Dzherelomicrosoft

ບົດຄວາມອື່ນໆ

ລົງ​ທະ​ບຽນ
ແຈ້ງ​ການ​ກ່ຽວ​ກັບ
ບຸກຄົນທົ່ວໄປ

0 ຄວາມຄິດເຫັນ
ການທົບທວນທີ່ຝັງໄວ້
ເບິ່ງຄຳເຫັນທັງໝົດ

ຈອງສໍາລັບການອັບເດດ

ເປັນທີ່ນິຍົມໃນປັດຈຸບັນ