USA, Storbritannia og andre land trykker "secure by design" AI-retningslinjer

USA, Storbritannia og andre land trykker "secure by design" AI-retningslinjer

Kilde node: 2979839

USA, Storbritannia, Australia og 15 andre land har gitt ut globale retningslinjer for å beskytte AI-modeller fra å bli tuklet med, og oppfordrer selskaper til å gjøre modellene "sikre ved design."

26. november ga de 18 landene ut en 20-siders dokument skisserer hvordan AI-firmaer bør håndtere cybersikkerheten deres når de utvikler eller bruker AI-modeller, ettersom de hevdet "sikkerhet kan ofte være et sekundært hensyn" i den fartsfylte industrien.

Retningslinjene besto for det meste av generelle anbefalinger som å opprettholde stram bånd på AI-modellens infrastruktur, overvåking for eventuell tukling med modeller før og etter utgivelse, og opplæring av ansatte i cybersikkerhetsrisikoer.

Ikke nevnt var visse omstridte problemer i AI-rommet, inkludert hvilke mulige kontroller det bør være rundt bruken av bildegenererende modeller og dype forfalskninger eller datainnsamlingsmetoder og bruk i treningsmodeller - et problem som er sett flere AI-firmaer saksøkt på krav om brudd på opphavsrett.

"Vi er ved et vendepunkt i utviklingen av kunstig intelligens, som godt kan være vår tids mest konsekvensteknologi," USAs innenrikssikkerhetsminister Alejandro Mayorkas sa i en uttalelse. "Sybersikkerhet er nøkkelen til å bygge AI-systemer som er trygge, sikre og pålitelige."

Relatert: EUs teknologikoalisjon advarer mot overregulering av AI før EUs AI-lov er ferdigstilt

Retningslinjene følger andre statlige initiativer som vekter AI, inkludert myndigheter og AI-firmaer møte for et AI Safety Summit i London tidligere denne måneden for å koordinere en avtale om AI-utvikling.

I mellomtiden er EU hash ut detaljer av sin AI-lov som vil føre tilsyn med verdensrommet, og USAs president Joe Biden utstedte en utøvende ordre i oktober som satte standarder for AI-sikkerhet og sikkerhet – selv om både har sett pushback fra AI-industrien og hevdet at de kunne kvele innovasjon.

Andre medunderskrivere til de nye retningslinjene for "secure by design" inkluderer Canada, Frankrike, Tyskland, Israel, Italia, Japan, New Zealand, Nigeria, Norge, Sør-Korea og Singapore. AI-firmaer, inkludert OpenAI, Microsoft, Google, Anthropic og Scale AI, bidro også til å utvikle retningslinjene.

Blad: AI Eye: Reelle bruksområder for AI i krypto, Googles GPT-4-rival, AI-kant for dårlige ansatte

Tidstempel:

Mer fra Cointelegraph