Jumat, 29 Maret 2024

desktop v4.2.1

Root NationНовиниberita TIMicrosoft mengumumkan solusi AI pelindung berdasarkan GPT-4 Security Copilot

Microsoft mengumumkan solusi AI pelindung berdasarkan GPT-4 Security Copilot

-

Sistem kecerdasan buatan (AI) sudah digunakan untuk membuat grafik, chatbot, dan bahkan mengendalikan rumah pintar. Perusahaan Microsoft mempercayakan AI pada salah satu bidang terpenting dalam kehidupan modern – perlindungan terhadap ancaman dunia maya. Alat Security Copilot memungkinkan Anda mengenali serangan dunia maya meskipun tidak ada tanda-tanda yang jelas dan membantu menghilangkannya.

Dalam situasi di mana keamanan komputer Anda terganggu karena beberapa alasan, Security Copilot akan membantu Anda menentukan apa yang terjadi, apa yang harus dilakukan, dan bagaimana mencegah insiden serupa terjadi pada orang lain. Perusahaan memperkenalkan solusi baru berdasarkan model GPT-4 - Security Copilot membantu klien korporat menghadapi ancaman.

Microsoft Kopilot Keamanan

Sejauh ini, alat tersebut hanya tersedia untuk pelanggan korporat. Model bahasa besar yang sama yang mendukung aplikasi seperti Bing Chat berada di balik Security Copilot. Namun, dalam hal ini kita berbicara tentang opsi yang dilatih secara khusus tentang materi dan terminologi yang digunakan oleh para profesional TI. Selain itu, Microsoft telah mengintegrasikan Copilot dengan alat keamanan lainnya. Perusahaan berjanji bahwa seiring waktu akan dapat menggunakan solusi perangkat lunak pihak ketiga.

Meskipun sebagian besar aplikasi khusus berbasis GPT-4 dilatih menggunakan kumpulan data yang sudah ketinggalan zaman, Security Copilot memperoleh wawasan baru secara real-time dengan mempelajari triliunan sinyal ancaman yang Microsoft menerima setiap hari. Inilah kelebihan model ini - Security Copilot dapat mengenali sinyal tersembunyi bahkan sebelum fakta serangan menjadi jelas. Berkat ini, alat ini dapat digunakan untuk mengenali dan menghilangkan ancaman secara tepat waktu.

Microsoft Kopilot Keamanan

Pada saat yang sama, beberapa waktu lalu menjadi jelas bahwa AI seperti ChatGPT, Bing Chat, atau Google Bard dapat mengalami "halusinasi" di mana fakta yang sama sekali tidak dapat diandalkan digunakan sebagai dasar untuk "penalaran". Di bidang keamanan, hal ini bisa menjadi fenomena yang sangat berbahaya. DI DALAM Microsoft telah mengonfirmasi bahwa Security Copilot "tidak selalu menyelesaikan masalah dengan benar". Untungnya, dalam hal produk Microsoft mekanisme umpan balik pengguna disediakan untuk memberikan jawaban yang semakin relevan.

Belum Microsoft tidak melaporkan apa yang mungkin terjadi ketika AI defensif bertabrakan dengan AI jahat, seperti AI yang dirancang untuk menyerang pengguna dan bisnis. Bagaimanapun, perusahaan mengatakan bahwa pelanggan perusahaan sudah dapat menguji Security Copilot pada segmen kecil penggunanya. Jika eksperimen ini berhasil, kemungkinan besar eksperimen tersebut dapat membantu pengguna biasa di masa mendatang.

Juga menarik:

Jerelomicrosoft
Daftar
Beritahu tentang
tamu

0 komentar
Ulasan Tertanam
Lihat semua komentar
Artikel lainnya
Berlangganan untuk pembaruan

Komentar terbaru

Populer sekarang
0
Kami menyukai pemikiran Anda, silakan beri komentar.x