A világ legnépszerűbb chatbotját, a ChatGPT-t használják a támadók új rosszindulatú programok létrehozására.
A WithSecure kiberbiztonsági cég megerősítette, hogy a hírhedt mesterséges intelligencia szerzője által létrehozott rosszindulatú programokra talált példákat a vadonban. Ami a ChatGPT-t különösen veszélyessé teszi, az az, hogy számtalan rosszindulatú programváltozatot generálhat, ami megnehezíti azok észlelését.
A támadók egyszerűen példákat szolgáltathatnak a ChatGPT-nek a meglévő rosszindulatú kódokra, és utasíthatják, hogy ezek alapján hozzon létre új törzseket, lehetővé téve számukra, hogy állandósítsák a kártevőt anélkül, hogy közel annyi időt, erőfeszítést és tudást költenének, mint korábban.
A hír sok szóbeszéd közepette arról szól, hogy szabályozzák az AI-t, hogy megakadályozzák a rosszindulatú célokra való felhasználást. Amikor tavaly novemberben a ChatGPT rendkívül népszerűvé vált, nem voltak szabályok a használatára, és egy hónapon belül feltörték, hogy rosszindulatú e-maileket és fájlokat írjon.
A modellen belül vannak bizonyos biztosítékok, amelyek célja a rosszindulatú promptok végrehajtásának megakadályozása, de a támadók megkerülhetik őket.
Juhani Hintikka, a WithSecure vezérigazgatója az Infosecurity-nek elmondta, hogy a kiberbiztonság védelmezői általában mesterséges intelligenciát használnak a fenyegetés szereplői által manuálisan létrehozott rosszindulatú programok felkutatására és kiszűrésére.
Úgy tűnik azonban, hogy ez most megváltozik, mivel a hatékony AI-eszközök, például a ChatGPT ingyenesen elérhető. A távelérési eszközöket illegális célokra használták, és most ugyanez vonatkozik a mesterséges intelligenciára is.
Tim West, a WithSecure fenyegetésekkel foglalkozó intelligencia vezetője hozzátette, hogy "a ChatGPT jó és rossz értelemben is támogatja a szoftverfejlesztést, és ez segíti és csökkenti a rosszindulatú szoftverfejlesztők belépési korlátait."
Hintikka szerint az adathalász e-maileket, amelyeket a ChatGPT képes létrehozni, az emberek általában észreveszik, és ahogy az LLM-ek egyre fejlettebbek, a közeljövőben nehezebb lehet megakadályozni, hogy ilyen csalásokba essenek.
Sőt, ahogy a támadók támadásainak sikere riasztó ütemben növekszik, a támadók újra befektetnek és szervezettebbé válnak, kiszervezéssel bővítik működésüket, és elmélyítik a mesterséges intelligenciával kapcsolatos ismereteiket, hogy sikeresebb támadásokat indíthassanak.
Hintikka arra a következtetésre jutott, hogy a kiberbiztonság jövőbeli helyzetét tekintve „a jó mesterséges intelligencia és a rossz AI játéka lesz”.
Olvassa el még: