محبوب ترین ربات چت جهان، ChatGPT، توسط مهاجمان برای ایجاد گونه های جدید بدافزار استفاده می شود.
شرکت امنیت سایبری WithSecure تأیید کرده است که نمونههایی از بدافزارهای ایجاد شده توسط نویسنده بدنام هوش مصنوعی را در طبیعت پیدا کرده است. چیزی که ChatGPT را به ویژه خطرناک می کند این است که می تواند انواع بدافزارهای بی شماری را تولید کند و شناسایی آنها را دشوار می کند.
مهاجمان به سادگی میتوانند نمونههایی از کدهای مخرب موجود را به ChatGPT ارائه کنند و به آن دستور دهند تا بر اساس آنها، گونههای جدیدی ایجاد کند و به آنها اجازه میدهد تا بدافزار را بدون صرف زمان، تلاش و دانش قبلی، تداوم بخشند.
این خبر در حالی منتشر می شود که صحبت های زیادی در مورد تنظیم AI برای جلوگیری از استفاده از آن برای اهداف مخرب است. هنگامی که ChatGPT در نوامبر گذشته بسیار محبوب شد، هیچ قانونی برای استفاده از آن وجود نداشت و در عرض یک ماه برای نوشتن ایمیلها و فایلهای مخرب ربوده شد.
محافظ های خاصی در مدل وجود دارد که برای جلوگیری از اجرای دستورات مخرب در نظر گرفته شده است، اما مهاجمان می توانند از آنها عبور کنند.
Juhani Hintikka، مدیر عامل WithSecure، به Infosecurity گفت که مدافعان امنیت سایبری معمولاً از هوش مصنوعی برای یافتن و فیلتر کردن بدافزارهایی که به صورت دستی توسط عوامل تهدید ایجاد میشوند، استفاده میکنند.
با این حال، به نظر می رسد که اکنون با ابزارهای قدرتمند هوش مصنوعی مانند ChatGPT که به صورت رایگان در دسترس هستند، این وضعیت در حال تغییر است. ابزارهای دسترسی از راه دور برای مقاصد غیرقانونی مورد استفاده قرار گرفته اند و اکنون همین امر در مورد هوش مصنوعی نیز صدق می کند.
تیم وست، رئیس اطلاعات تهدیدات در WithSecure، اضافه کرد که «ChatGPT از مهندسی نرمافزار، هم از نظر خوب و هم بد، پشتیبانی میکند و این به توسعهدهندگان نرمافزار مخرب کمک میکند و مانع ورود آنها را کاهش میدهد».
به گفته Hintikka، ایمیلهای فیشینگ که ChatGPT میتواند ایجاد کند معمولاً مورد توجه مردم قرار میگیرد و با پیشرفتهتر شدن LLMها، ممکن است در آینده نزدیک جلوگیری از گرفتار شدن به چنین کلاهبرداریهایی دشوارتر شود.
علاوه بر این، با افزایش موفقیت حملات مهاجمان با نرخ هشداردهندهای، مهاجمان دوباره سرمایهگذاری میکنند و سازماندهی میشوند، عملیات را از طریق برون سپاری گسترش میدهند و درک خود را از هوش مصنوعی برای انجام حملات موفقتر عمیقتر میکنند.
Hintikka به این نتیجه رسید که با نگاهی به چشم انداز آینده امنیت سایبری، "این یک بازی هوش مصنوعی خوب در مقابل هوش مصنوعی بد خواهد بود."
همچنین بخوانید: