Med sin sikkerhed under lup rekrutterer OpenAI et "rødt team" for cybersikkerhed - Dekrypter

Med sin sikkerhed under lup rekrutterer OpenAI et "Red Team" for cybersikkerhed - Dekrypter

Kildeknude: 2889781

For at styrke sikkerheden for sin populære AI-chatbot, henvender OpenAI sig til eksterne cybersikkerheds- og penetrationseksperter, også kendt som "røde teams", for at finde huller i AI-platformen.

Virksomheden siger, at den leder efter eksperter på tværs af forskellige områder, herunder kognitiv og datalogi, økonomi, sundhedspleje og cybersikkerhed. Målet, siger OpenAI, er at forbedre sikkerheden og etikken i AI-modeller.

Den åbne invitation kommer, da US Federal Trade Commission lancerer en undersøgelse ind i OpenAI's dataindsamling og sikkerhedspraksis, og politiske beslutningstagere , selskaber stiller spørgsmålstegn ved, hvor sikkert det er at bruge ChatGPT.

"[Det er] crowdsourcing af frivillige til at hoppe ind og lave sjove sikkerhedsting," Halborn Medstifter & CISO Steven Walbroehl fortalte Dekryptér. "Det er en netværksmulighed og en chance for at være [på] frontlinjen af ​​teknologi."

"Hackere - de bedste - kan lide at hacke den nyeste nye teknologi," tilføjede Walbroehl.

For at forsøde aftalen siger OpenAI, at røde teammedlemmer vil blive kompenseret, og ingen forudgående erfaring med AI er nødvendig - kun en vilje til at bidrage med forskellige perspektiver.

"Vi annoncerer en åben opfordring til OpenAI Red Teaming Network og inviterer domæneeksperter, der er interesserede i at forbedre sikkerheden af ​​OpenAIs modeller til at deltage i vores indsats," OpenAI skrev. "Vi leder efter eksperter fra forskellige områder til at samarbejde med os om strengt at evaluere og sammensætte vores AI-modeller."

Røde hold henvise til cybersikkerhedsprofessionelle, som er eksperter i at angribe – også kendt som penetrationstest eller pen-testning – systemer og afsløre sårbarheder. I modsætning hertil beskriver blå teams cybersikkerhedsprofessionelle, der forsvarer systemer mod angreb.

"Ud over at deltage i netværket er der andre samarbejdsmuligheder for at bidrage til AI-sikkerhed," fortsatte OpenAI. "For eksempel er en mulighed at oprette eller udføre sikkerhedsevalueringer på AI-systemer og analysere resultaterne."

OpenAI blev lanceret i 2015 og kom i offentlighedens øjne sidst sidste år med den offentlige lancering af ChatGPT og den mere avancerede GPT-4 i marts, hvilket tog teknologiverdenen med storm og indvarslede generativ AI ind i mainstream.

I juli sluttede OpenAI sig til Google, Microsoft og andre og lovede at forpligte sig til at udvikle sikker og sikker AI værktøjer.

Mens generative AI-værktøjer som ChatGPT har revolutioneret, hvordan folk skaber indhold og forbruger information, har AI-chatbots ikke været uden kontroverser, hvilket har trukket påstande om bias, racisme, at lyve (hallucinerende), og mangler gennemsigtighed med hensyn til, hvordan og hvor brugerdata opbevares.

Bekymringer over brugernes privatliv førte til flere lande, bl.a Italiensk vin, Rusland, Kina, Nordkorea, Cuba, Iran og Syrien, for at implementere forbud mod at bruge ChatGPT inden for deres grænser. Som svar opdaterede OpenAI ChatGPT til at inkludere en slette chathistorik funktion for at øge brugernes privatliv.

Red Team-programmet er det seneste skuespil fra OpenAI for at tiltrække topsikkerhedsprofessionelle til at hjælpe med at evaluere deres teknologi. I juni lovede OpenAI $ 1 millioner mod cybersikkerhedstiltag og -initiativer, der bruger kunstig intelligens.

Mens virksomheden sagde, at forskere ikke er begrænset i at offentliggøre deres resultater eller forfølge andre muligheder, bemærkede OpenAI, at medlemmer af programmet bør være opmærksomme på, at involvering i røde teaming og andre projekter ofte er underlagt fortrolighedsaftaler (NDA'er) eller "skal forblive fortroligt på ubestemt tid."

"Vi opmuntrer til kreativitet og eksperimentering i evaluering af AI-systemer," konkluderede OpenAI. "Når du er færdig, byder vi dig velkommen til at bidrage med din evaluering til open source Evals-repoen til brug for det bredere AI-fællesskab."

OpenAI vendte ikke straks tilbage Dekryptér s anmode om kommentar.

Hold dig opdateret med kryptonyheder, få daglige opdateringer i din indbakke.

Tidsstempel:

Mere fra Dekryptér