Root NationНовиниIT новиниНеочаквано! (Не). ChatGPT се използва за създаване на зловреден софтуер

Неочаквано! (Не). ChatGPT се използва за създаване на зловреден софтуер

-

Най-популярният чатбот в света, ChatGPT, се използва от нападатели за създаване на нови видове зловреден софтуер.

Фирмата за киберсигурност WithSecure потвърди, че е открила примери за зловреден софтуер, създаден от прословутия автор на AI в дивата природа. Това, което прави ChatGPT особено опасен, е, че може да генерира безброй вариации на зловреден софтуер, което ги прави трудни за откриване.

Нападателите могат просто да предоставят на ChatGPT примери за съществуващ злонамерен код и да го инструктират да създава нови щамове въз основа на тях, което им позволява да поддържат злонамерения софтуер, без да изразходват почти толкова време, усилия и знания, колкото преди.

ChatGPT

Новината идва на фона на много разговори за регулиране на AI, за да се предотврати използването му за злонамерени цели. Когато ChatGPT стана изключително популярен миналия ноември, нямаше правила, регулиращи използването му, и в рамките на един месец той беше отвлечен, за да пише злонамерени имейли и файлове.

В модела има определени предпазни мерки, които са предназначени да предотвратят изпълнението на злонамерени подкани, но могат да бъдат заобиколени от нападателите.

Юхани Хинтика, главен изпълнителен директор на WithSecure, каза пред Infosecurity, че защитниците на киберсигурността обикновено използват изкуствен интелект, за да намерят и филтрират зловреден софтуер, създаден ръчно от участници в заплахи.

Това обаче изглежда се променя сега, като мощните AI инструменти като ChatGPT стават свободно достъпни. Инструментите за отдалечен достъп са били използвани за незаконни цели, а сега същото важи и за изкуствения интелект.

Тим Уест, ръководител на разузнаването на заплахите в WithSecure, добави, че "ChatGPT ще поддържа софтуерното инженерство, както по добър, така и по лош начин, и това помага и намалява бариерата за навлизане на разработчиците на зловреден софтуер."

Според Hintikka фишинг имейлите, които ChatGPT може да създаде, обикновено се забелязват от хората и тъй като LLM стават все по-напреднали, може да стане по-трудно да се предотврати попадането на такива измами в близко бъдеще.

ChatGPT

Нещо повече, тъй като успехът на атакуващите атаки се увеличава с тревожна скорост, атакуващите реинвестират и стават по-организирани, разширявайки операциите чрез аутсорсинг и задълбочавайки разбирането си за изкуствения интелект, за да стартират по-успешни атаки.

Hintikka заключи, че, гледайки към бъдещия пейзаж на киберсигурността, "това ще бъде игра на добър AI срещу лош AI."

Прочетете също:

Регистрирай се
Уведомете за
гост

0 Коментари
Вградени рецензии
Вижте всички коментари
Други статии
Абонирайте се за актуализации
Популярни сега