Категории: IT новини

Неочаквано! (Не). ChatGPT се използва за създаване на зловреден софтуер

Най-популярният чатбот в света, ChatGPT, се използва от нападатели за създаване на нови видове зловреден софтуер.

Фирмата за киберсигурност WithSecure потвърди, че е открила примери за зловреден софтуер, създаден от прословутия автор на AI в дивата природа. Това, което прави ChatGPT особено опасен, е, че може да генерира безброй вариации на зловреден софтуер, което ги прави трудни за откриване.

Нападателите могат просто да предоставят на ChatGPT примери за съществуващ злонамерен код и да го инструктират да създава нови щамове въз основа на тях, което им позволява да поддържат злонамерения софтуер, без да изразходват почти толкова време, усилия и знания, колкото преди.

Новината идва на фона на много разговори за регулиране на AI, за да се предотврати използването му за злонамерени цели. Когато ChatGPT стана изключително популярен миналия ноември, нямаше правила, регулиращи използването му, и в рамките на един месец той беше отвлечен, за да пише злонамерени имейли и файлове.

В модела има определени предпазни мерки, които са предназначени да предотвратят изпълнението на злонамерени подкани, но могат да бъдат заобиколени от нападателите.

Юхани Хинтика, главен изпълнителен директор на WithSecure, каза пред Infosecurity, че защитниците на киберсигурността обикновено използват изкуствен интелект, за да намерят и филтрират зловреден софтуер, създаден ръчно от участници в заплахи.

Това обаче изглежда се променя сега, като мощните AI инструменти като ChatGPT стават свободно достъпни. Инструментите за отдалечен достъп са били използвани за незаконни цели, а сега същото важи и за изкуствения интелект.

Тим Уест, ръководител на разузнаването на заплахите в WithSecure, добави, че "ChatGPT ще поддържа софтуерното инженерство, както по добър, така и по лош начин, и това помага и намалява бариерата за навлизане на разработчиците на зловреден софтуер."

Според Hintikka фишинг имейлите, които ChatGPT може да създаде, обикновено се забелязват от хората и тъй като LLM стават все по-напреднали, може да стане по-трудно да се предотврати попадането на такива измами в близко бъдеще.

Нещо повече, тъй като успехът на атакуващите атаки се увеличава с тревожна скорост, атакуващите реинвестират и стават по-организирани, разширявайки операциите чрез аутсорсинг и задълбочавайки разбирането си за изкуствения интелект, за да стартират по-успешни атаки.

Hintikka заключи, че, гледайки към бъдещия пейзаж на киберсигурността, "това ще бъде игра на добър AI срещу лош AI."

Прочетете също:

Сподели
Julia Alexandrova

Кафеджия. Фотограф. Пиша за наука и космос. Мисля, че ни е рано да се срещаме с извънземни. Следя развитието на роботиката, за всеки случай...

Оставете коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани*