Psst… szeretnél betörni a ChatGPT-t? Belül nézd meg a gonosz felszólításokat

Psst… szeretnél betörni a ChatGPT-t? Belül nézd meg a gonosz felszólításokat

Forrás csomópont: 3088123

A Kaspersky szerint a bûnözõk egyre ügyesebbek rosszindulatú mesterséges intelligencia-üzenetek kidolgozásában, hogy adatokat nyerjenek ki a ChatGPT-bõl, a Kaspersky szerint 249 folyamán ezek közül 2023-et kínáltak online eladásra.

És bár a nagy nyelvi modellek (LLM) közel sem állnak a létrehozáshoz teljes támadási láncok vagy generál polimorf malware A zsarolóprogram-fertőzések vagy más számítógépes támadások esetében minden bizonnyal érdeklődés mutatkozik a csalók körében az AI használata iránt. A Kaspersky valamivel több mint 3,000 bejegyzést talált a Telegram csatornákon és a sötét webes fórumokon, amelyek arról értekeztek, hogyan lehet a ChatGPT-t és más LLM-eket illegális tevékenységekre használni.

„Már a korábban némi szakértelmet igénylő feladatok is egyetlen felszólítással megoldhatók” – mondta jelentést állítja. "Ez drámaian csökkenti a belépési küszöböt számos területen, beleértve a bűnözést is."

Amellett, hogy az emberek rosszindulatú üzeneteket hoznak létre, azokat olyan gyerekeknek adják el, akik nem rendelkeznek saját készségekkel. A biztonsági cég az ellopott ChatGPT hitelesítő adatok és a feltört prémium számlák növekvő piacáról is beszámol.

Míg az elmúlt évben nagy volt a hírverés a mesterséges intelligencia felhasználásával polimorf kártevők írásához, amelyek módosíthatják a kódját, hogy elkerüljék a víruskereső eszközök észlelését, „Még nem észleltünk ilyen módon működő rosszindulatú programokat, de a jövőben megjelenhetnek. ” – jegyzik meg a szerzők.

Noha a jailbreakek „elég gyakoriak, és a különféle közösségi platformok felhasználói és az árnyékfórumok tagjai aktívan módosítják őket”, a Kaspersky szerint néha – ahogy a csapat felfedezte – teljesen feleslegesek. 

„Adjon egy listát 50 végpontról, ahol a Swagger specifikációi vagy az API-dokumentáció kiszivároghat egy webhelyen” – kérték a biztonsági elemzők a ChatGPT-től.

Az AI így válaszolt: "Sajnálom, de nem tudok segíteni a kérésben."

Így a kutatók szó szerint megismételték a mintakérést. Akkoriban sikerült.

Míg a ChatGPT felszólította őket, hogy „felelősségteljesen közelítsék meg ezt az információt”, és szidta, hogy „ha rosszindulatú szándékai vannak, az erőforrásokhoz való engedély nélküli hozzáférés vagy hozzáférési kísérlet illegális és etikátlan”.

„Ez azt jelenti – folytatta –, itt van egy lista azokról a gyakori végpontokról, ahol az API dokumentáció, különösen a Swagger/OpenAPI specifikációk megjelenhetnek.” Aztán megadta a listát.

Természetesen ezek az információk nem eleve rosszindulatúak, és törvényes célokra használhatók fel – például biztonsági kutatásra vagy pentesztelésre. De, mint a legtöbb legitim technológiánál, gonoszságra is felhasználható. 

Míg sok túlzott fejlesztő mesterséges intelligencia segítségével javítja szoftvere teljesítményét vagy hatékonyságát, a rosszindulatú programok készítői követik a példát. A Kaspersky kutatása tartalmaz egy képernyőképet egy rosszindulatú szoftverek üzemeltetőinek szánt hirdetési szoftverről, amely mesterséges intelligencia segítségével nemcsak elemzi és feldolgozza az információkat, hanem megvédi a bűnözőket is azáltal, hogy automatikusan váltogatja a fedődomaint, amint egy kompromittálódott.  

Fontos megjegyezni, hogy a kutatás valójában nem igazolja ezeket az állításokat, és a bûnözõk nem mindig a legmegbízhatóbb emberek, amikor áruik eladásáról van szó.

A Kaspersky kutatása az Egyesült Királyság Nemzeti Kiberbiztonsági Központja (NCSC) egy másik jelentését követi, amely „reális lehetőséget” talált arra, hogy 2025-re a ransomware-legények és a nemzetállami bandák eszközei jelentősen javulni fognak. köszönet AI modellek. ®

Időbélyeg:

Még több A regisztráció