AI-forskere avslører kritiske sårbarheter i store LLM-er

AI-forskere avslører kritiske sårbarheter i store LLM-er

Kilde node: 2936742
15. okt 2023 (Nanowerk Nyheter) Store språkmodeller (LLMs) som ChatGPT og Bard har tatt verden med storm i år, med selskaper som investerer millioner for å utvikle disse AI-verktøyene, og noen ledende AI-chatboter er verdsatt i milliardklassen. Disse LLM-ene, som i økende grad brukes innenfor AI-chatboter, skraper hele Internett av informasjon for å lære og informere svar som de gir til brukerspesifiserte forespørsler, kjent som "forespørsler". Dataforskere fra AI-sikkerhetsoppstarten Mindgard og Lancaster University i Storbritannia har imidlertid demonstrert at deler av disse LLM-ene kan kopieres på mindre enn en uke for så lite som $50, og informasjonen som er oppnådd kan brukes til å starte målrettede angrep . Forskerne advarer om at angripere som utnytter disse sårbarhetene kan avsløre privat konfidensiell informasjon, omgå rekkverk, gi feil svar eller iscenesette ytterligere målrettede angrep. Detaljert i et nytt papir ("Model Leeching: An Extraction Attack rettet mot LLMs") som skal presenteres på CAMLIS 2023 (Conference on Applied Machine Learning for Information Security), viser forskerne at det er mulig å kopiere viktige aspekter av eksisterende LLM-er billig, og de viser bevis på at sårbarheter overføres mellom ulike modeller. Dette angrepet, kalt "modell leeching", fungerer ved å snakke med LLM-er på en slik måte - spør det et sett med målrettede spørsmål - slik at LLM-ene fremkaller innsiktsfull informasjon som gir bort hvordan modellen fungerer. Forskerteamet, som fokuserte studien sin på ChatGPT-3.5-Turbo, brukte deretter denne kunnskapen til å lage sin egen kopimodell, som var 100 ganger mindre, men replikerte nøkkelaspekter ved LLM. Forskerne kunne deretter bruke denne modellkopien som et testområde for å finne ut hvordan man utnytter sårbarheter i ChatGPT uten å bli oppdaget. De var da i stand til å bruke kunnskapen hentet fra modellen deres til å angripe sårbarheter i ChatGPT med en 11 % økt suksessrate. Dr Peter Garraghan fra Lancaster University, administrerende direktør i Mindgard og hovedetterforsker på forskningen, sa: "Det vi oppdaget er vitenskapelig fascinerende, men ekstremt bekymringsfullt. Dette er blant de aller første arbeidene som empirisk demonstrerer at sikkerhetssårbarheter kan overføres mellom lukket kildekode og åpen kildekode Machine Learning-modeller, noe som er ekstremt bekymringsfullt gitt hvor mye industrien er avhengig av offentlig tilgjengelige Machine Learning-modeller som er vert for steder som HuggingFace. Forskerne sier at arbeidet deres fremhever at selv om disse kraftige digitale AI-teknologiene har klare bruksområder, finnes det skjulte svakheter, og det kan til og med være vanlige sårbarheter på tvers av modeller. Bedrifter på tvers av industrien er for tiden eller forbereder seg på å investere milliarder i å lage sine egne LLM-er for å påta seg et bredt spekter av oppgaver, for eksempel smarte assistenter. Finansielle tjenester og store bedrifter tar i bruk disse teknologiene, men forskere sier at disse sårbarhetene bør være en stor bekymring for alle virksomheter som planlegger å bygge eller bruke tredjeparts LLM-er. Dr Garraghan sa: "Selv om LLM-teknologi er potensielt transformativ, vil både bedrifter og forskere måtte tenke veldig nøye på å forstå og måle cyberrisikoen forbundet med å ta i bruk og distribuere LLM."

Tidstempel:

Mer fra Nanowerk