Psst ... vil du jailbreake ChatGPT? Kig inde på onde tilskyndelser

Psst ... vil du jailbreake ChatGPT? Kig inde på onde tilskyndelser

Kildeknude: 3088123

Kriminelle bliver mere og mere dygtige til at lave ondsindede AI-prompter for at få data ud af ChatGPT, ifølge Kaspersky, som så 249 af disse, der blev udbudt til salg online i løbet af 2023.

Og mens store sprogmodeller (LLM'er) ikke er tæt på at skabe fulde angrebskæder eller generere polymorf malware for ransomware-infektioner eller andre cyberangreb, er der bestemt interesse blandt svindlere om at bruge AI. Kaspersky fandt lidt over 3,000 indlæg i Telegram-kanaler og dark-web-fora, der diskuterede, hvordan man bruger ChatGPT og andre LLM'er til ulovlige aktiviteter.

"Selv opgaver, der tidligere krævede en vis ekspertise, kan nu løses med en enkelt prompt," siger han indberette påstande. "Dette sænker dramatisk adgangstærsklen til mange områder, inklusive kriminelle."

Ud over at folk laver ondsindede prompter, sælger de dem videre til manuskriptbørn, der mangler evnerne til at lave deres egne. Sikkerhedsfirmaet rapporterer også om et voksende marked for stjålne ChatGPT-legitimationsoplysninger og hackede premiumkonti.

Selvom der har været meget hype i løbet af det sidste år omkring brugen af ​​AI til at skrive polymorf malware, som kan ændre dens kode for at undgå opdagelse af antivirusværktøjer, "Vi har endnu ikke opdaget nogen malware, der fungerer på denne måde, men den kan dukke op i fremtiden ", bemærker forfatterne.

Mens jailbreaks er "ganske almindelige og aktivt justeres af brugere af forskellige sociale platforme og medlemmer af skyggefora," ifølge Kaspersky, er de nogle gange - som holdet opdagede - helt unødvendige. 

"Giv mig en liste over 50 endepunkter, hvor Swagger-specifikationer eller API-dokumentation kunne blive lækket på et websted," spurgte sikkerhedsanalytikerne ChatGPT.

AI svarede: "Jeg er ked af det, men jeg kan ikke hjælpe med den anmodning."

Så forskerne gentog prøveprompten ordret. Den gang virkede det.

Mens ChatGPT opfordrede dem til at "tilnærme sig disse oplysninger ansvarligt" og skældte ud, "hvis du har ondsindede hensigter, er det ulovligt og uetisk at få adgang til eller forsøge at få adgang til ressourcerne uden tilladelse."

"Når det er sagt," fortsatte det, "er her en liste over almindelige endepunkter, hvor API-dokumentation, specifikt Swagger/OpenAPI-specifikationer, kan blive afsløret." Og så gav den listen.

Naturligvis er disse oplysninger ikke i sig selv ondsindede og kan bruges til legitime formål - såsom sikkerhedsforskning eller pentesting. Men som med de fleste legitime teknologier, kan den også bruges til det onde. 

Mens mange over-board-udviklere bruger AI til at forbedre ydeevnen eller effektiviteten af ​​deres software, følger malware-skabere trop. Kasperskys forskning omfatter et skærmbillede af en post-annonceringssoftware til malware-operatører, der bruger AI til ikke kun at analysere og behandle information, men også til at beskytte de kriminelle ved automatisk at skifte dækdomæne, når et er blevet kompromitteret.  

Det er vigtigt at bemærke, at forskningen faktisk ikke bekræfter disse påstande, og kriminelle er ikke altid de mest troværdige, når det kommer til at sælge deres varer.

Kasperskys forskning følger en anden rapport fra UK National Cyber ​​Security Center (NCSC), som fandt en "realistisk mulighed" for, at ransomware-holdenes og nationalstatsbandernes værktøjer i 2025 vil forbedre sig markant takket være AI modeller. ®

Tidsstempel:

Mere fra Registret