USA, Storbritannien och andra länder bläcker "secure by design" AI-riktlinjer

USA, Storbritannien och andra länder bläcker "secure by design" AI-riktlinjer

Källnod: 2979839

USA, Storbritannien, Australien och 15 andra länder har släppt globala riktlinjer för att skydda AI-modeller från att manipuleras, och uppmanar företag att göra sina modeller "säkra genom design."

Den 26 november släppte de 18 länderna en 20-sida dokumentera beskriver hur AI-företag bör hantera sin cybersäkerhet när de utvecklar eller använder AI-modeller, eftersom de hävdade att "säkerhet ofta kan vara en sekundär faktor" i den snabba industrin.

Riktlinjerna bestod mestadels av generella rekommendationer som att hålla ett stramt koppel på AI-modellens infrastruktur, övervakning av eventuella manipulationer med modeller före och efter release samt utbildning av personal om cybersäkerhetsrisker.

Inte nämndes vissa kontroversiella frågor i AI-utrymmet, inklusive vilka möjliga kontroller som borde finnas kring användningen av bildgenererande modeller och djupa förfalskningar eller metoder för datainsamling och användning i utbildningsmodeller — ett problem som har setts flera AI-företag stämde om anspråk på upphovsrättsintrång.

"Vi befinner oss vid en brytpunkt i utvecklingen av artificiell intelligens, som mycket väl kan vara den mest följdriktiga tekniken i vår tid", säger USA:s hemlandssäkerhetsminister Alejandro Mayorkas sade i ett påstående. "Cybersäkerhet är nyckeln till att bygga AI-system som är säkra, säkra och pålitliga."

Relaterat: EU:s tekniska koalition varnar för överreglering av AI innan EU:s AI-lag slutförs

Riktlinjerna följer andra statliga initiativ som väger in AI, inklusive regeringar och AI-företag möte för ett AI Safety Summit i London tidigare denna månad för att samordna ett avtal om AI-utveckling.

Samtidigt är Europeiska unionen haslar ut detaljer av dess AI-lag som kommer att övervaka rymden och USA:s president Joe Biden utfärdade en verkställande order i oktober som satte standarder för AI-säkerhet och säkerhet – även om både har sett pushback från AI-industrin och hävdade att de kunde strypa innovation.

Andra medundertecknare till de nya "secure by design"-riktlinjerna inkluderar Kanada, Frankrike, Tyskland, Israel, Italien, Japan, Nya Zeeland, Nigeria, Norge, Sydkorea och Singapore. AI-företag, inklusive OpenAI, Microsoft, Google, Anthropic och Scale AI, bidrog också till att utveckla riktlinjerna.

Magazine: AI Eye: Verkliga användningsområden för AI i krypto, Googles GPT-4-rival, AI-fördel för dåliga anställda

Tidsstämpel:

Mer från Cointelegraph