Med sin sikkerhet under gransking, rekrutterer OpenAI et "Red Team" for cybersikkerhet - Dekrypter

Med sikkerheten under gransking, rekrutterer OpenAI et "rødt team" for cybersikkerhet - Dekrypter

Kilde node: 2889781

For å styrke sikkerheten til sin populære AI-chatbot, henvender OpenAI seg til eksterne cybersikkerhets- og penetrasjonseksperter, også kjent som "røde team", for å finne hull i AI-plattformen.

Selskapet sier at det leter etter eksperter på tvers av ulike felt, inkludert kognitiv og informatikk, økonomi, helsevesen og cybersikkerhet. Målet, sier OpenAI, er å forbedre sikkerheten og etikken til AI-modeller.

Den åpne invitasjonen kommer når US Federal Trade Commission lanserer en etterforskning inn i OpenAIs datainnsamling og sikkerhetspraksis, og beslutningstakere og selskaper stiller spørsmål ved hvor trygt det er å bruke ChatGPT.

"[Det er] crowdsourcing av frivillige til å hoppe inn og gjøre morsomme sikkerhetsting," Halborn Medgründer og CISO Steven Walbroehl fortalte dekryptere. "Det er en nettverksmulighet, og en sjanse til å være [på] frontlinjen av teknologi."

"Hackere - de beste - liker å hacke den nyeste nye teknologien," la Walbroehl til.

For å blidgjøre avtalen, sier OpenAI at røde teammedlemmer vil bli kompensert, og ingen tidligere erfaring med AI er nødvendig – bare en vilje til å bidra med ulike perspektiver.

"Vi kunngjør en åpen utlysning for OpenAI Red Teaming Network og inviterer domeneeksperter som er interessert i å forbedre sikkerheten til OpenAIs modeller til å bli med i vår innsats," OpenAI skrev. "Vi ser etter eksperter fra ulike felt som kan samarbeide med oss ​​for å grundig evaluere og sette sammen våre AI-modeller."

Røde lag refererer til cybersikkerhetseksperter som er eksperter på å angripe – også kjent som penetrasjonstesting eller penn-testing – systemer og avsløre sårbarheter. Derimot beskriver blå team fagfolk innen nettsikkerhet som forsvarer systemer mot angrep.

"I tillegg til å bli med i nettverket, er det andre samarbeidsmuligheter for å bidra til AI-sikkerhet," fortsatte OpenAI. "For eksempel er et alternativ å lage eller gjennomføre sikkerhetsevalueringer på AI-systemer og analysere resultatene."

OpenAI ble lansert i 2015, og kom inn i offentligheten sent i fjor med den offentlige lanseringen av ChatGPT og den mer avanserte GPT-4 i mars, og tok teknologiverdenen med storm og innledet generativ AI inn i mainstream.

I juli sluttet OpenAI seg til Google, Microsoft og andre for å forplikte seg til å utvikle trygt og sikkert AI-verktøy.

Mens generative AI-verktøy som ChatGPT har revolusjonert hvordan folk lager innhold og konsumerer informasjon, har AI-chatboter ikke vært uten kontroverser, noe som trekker frem påstander om partiskhet, rasisme, lyver (hallusinerende), og mangler åpenhet om hvordan og hvor brukerdata lagres.

Bekymringer over brukernes personvern førte til flere land, inkludert Italia, Russland, Kina, Nord-Korea, Cuba, Iran og Syria, for å implementere forbud mot å bruke ChatGPT innenfor sine grenser. Som svar oppdaterte OpenAI ChatGPT for å inkludere en slette chathistorikk funksjon for å øke brukernes personvern.

Red Team-programmet er det siste skuespillet fra OpenAI for å tiltrekke topp sikkerhetseksperter for å hjelpe til med å evaluere teknologien. I juni lovet OpenAI $ 1 millioner mot cybersikkerhetstiltak og tiltak som bruker kunstig intelligens.

Mens selskapet sa at forskere ikke er begrenset fra å publisere funnene sine eller forfølge andre muligheter, bemerket OpenAI at medlemmene av programmet bør være klar over at involvering i red teaming og andre prosjekter ofte er underlagt taushetserklæringer (NDAer) eller "må forbli konfidensielt på ubestemt tid."

"Vi oppmuntrer til kreativitet og eksperimentering i å evaluere AI-systemer," konkluderte OpenAI. "Når du er ferdig, ønsker vi deg velkommen til å bidra med din evaluering til Evals-repoen med åpen kildekode for bruk av det bredere AI-fellesskapet."

OpenAI kom ikke umiddelbart tilbake dekryptere s forespørsel om kommentar.

Hold deg oppdatert på kryptonyheter, få daglige oppdateringer i innboksen din.

Tidstempel:

Mer fra dekryptere