USA, Storbritannien og andre lande blæk 'secure by design' AI-retningslinjer

USA, Storbritannien og andre lande blæk 'secure by design' AI-retningslinjer

Kildeknude: 2979839

USA, Storbritannien, Australien og 15 andre lande har udgivet globale retningslinjer for at hjælpe med at beskytte AI-modeller mod at blive manipuleret, og opfordrer virksomheder til at gøre deres modeller "sikre ved design."

Den 26. november udgav de 18 lande en 20-siders dokumentet skitsere, hvordan AI-virksomheder bør håndtere deres cybersikkerhed, når de udvikler eller bruger AI-modeller, da de hævdede "sikkerhed kan ofte være en sekundær overvejelse" i den hurtige industri.

Retningslinjerne bestod for det meste af generelle anbefalinger såsom at opretholde en stram snor på AI-modellens infrastruktur, overvågning for enhver manipulation med modeller før og efter udgivelsen og træning af personale i cybersikkerhedsrisici.

Ikke nævnt var visse omstridte problemer i AI-rummet, herunder hvilke mulige kontroller der skulle være omkring brugen af billedgenererende modeller og dybe forfalskninger eller dataindsamlingsmetoder og brug i træningsmodeller - et problem, der er set flere AI-firmaer sagsøgt på krav om krænkelse af ophavsret.

"Vi er ved et omdrejningspunkt i udviklingen af ​​kunstig intelligens, som meget vel kan være vor tids mest konsekvente teknologi," siger den amerikanske minister for indenrigssikkerhed, Alejandro Mayorkas. sagde i en udtalelse. "Cybersikkerhed er nøglen til at bygge AI-systemer, der er sikre, sikre og troværdige."

Relateret: EU's teknologikoalition advarer om overregulering af kunstig intelligens, før EU's kunstig intelligenslov er færdiggjort

Retningslinjerne følger andre regeringsinitiativer, der vægter AI, herunder regeringer og AI-virksomheder møde til et AI Safety Summit i London tidligere på måneden for at koordinere en aftale om AI-udvikling.

I mellemtiden er EU udhakke detaljer af sin AI-lov, der vil føre tilsyn med rummet, og den amerikanske præsident Joe Biden udstedte en bekendtgørelse i oktober, der satte standarder for AI-sikkerhed og -sikkerhed – selvom både har set pushback fra AI-industrien, der hævder, at de kunne kvæle innovation.

Andre medunderskrivere til de nye "secure by design"-retningslinjer inkluderer Canada, Frankrig, Tyskland, Israel, Italien, Japan, New Zealand, Nigeria, Norge, Sydkorea og Singapore. AI-virksomheder, herunder OpenAI, Microsoft, Google, Anthropic og Scale AI, bidrog også til at udvikle retningslinjerne.

Magazine: AI Eye: Reelle anvendelser af AI i krypto, Googles GPT-4-rival, AI-kant for dårlige medarbejdere

Tidsstempel:

Mere fra Cointelegraph