Root NationBeritaberita TIKode yang ditulis oleh kecerdasan buatan bisa berbahaya

Kode yang ditulis oleh kecerdasan buatan bisa berbahaya

-

Algoritme pembelajaran mesin sangat populer saat ini, karena digunakan untuk membuat segala jenis konten "asli" setelah pelatihan pada kumpulan data besar yang sudah ada sebelumnya. Namun, kode penghasil kecerdasan buatan (AI) dapat menimbulkan masalah nyata bagi keamanan perangkat lunak di masa mendatang.

Sistem AI seperti GitHub Copilot berjanji untuk membuat hidup pemrogram lebih mudah dengan membuat seluruh potongan kode "baru" berdasarkan data teks bahasa alami dan konteks yang sudah ada sebelumnya. Tetapi algoritma pembuatan kode juga dapat memperkenalkan faktor ketidakamanan, seperti yang baru-baru ini ditemukan oleh sebuah studi baru yang melibatkan beberapa pengembang.

Secara khusus melihat Codex, platform kecerdasan buatan yang dikembangkan oleh OpenAI, yang juga merupakan mesin kode di balik GitHub Copilot yang disebutkan sebelumnya, 47 pengembang berbeda berpartisipasi dalam penelitian ini. Dari pelajar hingga profesional berpengalaman, mereka ditantang untuk menggunakan Codex untuk memecahkan masalah terkait keamanan di Python, JavaScript, C, dan bahasa pemrograman tingkat tinggi lainnya.

Kode yang ditulis oleh kecerdasan buatan bisa berbahaya secara inheren

Para peneliti mencatat bahwa ketika pemrogram memiliki akses ke AI Codex, kode yang dihasilkan cenderung salah atau tidak aman dibandingkan dengan solusi "manual" yang dirancang oleh kelompok kontrol. Selain itu, pemrogram dengan solusi bertenaga AI cenderung mengatakan bahwa kode mereka yang tidak terlindungi aman, dibandingkan dengan grup kontrol yang disebutkan di atas.

Ale Perry, seorang mahasiswa pascasarjana di Universitas Stanford dan rekan penulis utama studi tersebut, mengatakan bahwa "sistem penghasil kode saat ini tidak dapat menggantikan pengembang manusia." Menurutnya, pengembang dapat menggunakan alat kecerdasan buatan untuk melakukan tugas-tugas di luar kompetensi mereka atau untuk mempercepat proses pemrograman di mana mereka sudah memiliki keterampilan tertentu. Menurut penulis studi, mereka harus memperhatikan keduanya dan selalu memeriksa kode yang dihasilkan.

Menurut Megha Srivastava, seorang mahasiswa pascasarjana di Stanford dan rekan penulis kedua studi tersebut, Codex bukannya tidak berguna: terlepas dari kekurangan AI "bodoh", sistem pembuatan kode dapat berguna saat digunakan untuk tugas berisiko rendah. Selain itu, pemrogram yang berpartisipasi dalam penelitian ini tidak memiliki banyak pengalaman dalam masalah keamanan, yang dapat membantu mendeteksi kode yang rentan atau berbahaya, kata Srivastava.

Kode yang ditulis oleh AI pada dasarnya bisa berbahaya

Algoritme AI juga dapat disesuaikan untuk meningkatkan saran pengkodean, dan perusahaan yang mengembangkan sistem mereka sendiri dapat memperoleh solusi yang lebih baik dengan model yang menghasilkan kode yang lebih sesuai dengan praktik keamanan mereka sendiri. Menurut penulis penelitian, teknologi pembuatan kode adalah pengembangan yang "menarik" dan banyak orang yang ingin menggunakannya. Hanya saja masih banyak pekerjaan yang harus dilakukan untuk menemukan solusi yang tepat untuk mengatasi kekurangan AI.

Anda dapat membantu Ukraina melawan penjajah Rusia. Cara terbaik untuk melakukannya adalah dengan menyumbangkan dana ke Angkatan Bersenjata Ukraina melalui selamatkan hidup atau melalui halaman resmi NBU.

Juga menarik:

Daftar
Beritahu tentang
tamu

0 komentar
Ulasan Tertanam
Lihat semua komentar