Det Forenede Kongerige vil reagere på AI-hvidbogen med regulatoriske tests

Det Forenede Kongerige vil reagere på AI-hvidbogen med regulatoriske tests

Kildeknude: 3070094

Den britiske regering vil offentliggøre tests for nye AI-love med fokus på sikkerhed og industrivækst. AI Safety Institute vil spille en rolle, med regler udløst af sikkerhedsrisici eller manglende overholdelse af AI-firmaer som OpenAI og Google.

Lovene er i tråd med regeringens fokus på at modstå at skabe et skrappere reguleringsregime for hurtigt udviklende teknologi, ifølge Financial Times. I de kommende uger vil britiske ministre offentliggøre kriterierne, som vil angive de omstændigheder, under hvilke de ville indføre begrænsninger på kraftfulde kunstig intelligens (AI)-modeller skabt af Google, OpenAI og andre virksomheder.

Britiske regering indført et system til at overvåge dette, som er AI Safety Institute, et organ bestående af akademikere og læringseksperter. Hvis AI Safety Institute ikke formår at identificere risiciene omkring teknologien, vil en intervention blive udløst. En anden test, der kan udløse lovgivning, er, hvis AI-virksomheder undlader at overholde frivillige forpligtelser for at undgå skade.

Den britiske regerings tilgang til kunstig intelligens

En erklæring offentliggjort af regeringen bekræfter, at den britiske regerings let-touch tilgang til regulering af AI vil blive afspejlet i offentliggørelsen af ​​disse tests. Ifølge erklæringen vil de tage skridt til at mindske risici og støtte sikkert og ansvarligt AI-teknologi som krævet. Erklæringen fortsatte med at sige, at de ville fastholde en pro-innovationstilgang i tæt samråd med civilsamfundet og industrien.

Filosofien vil følgelig gennemgå de "tests" for at bestå AI-lovgivningen, der foreslås af den britiske regering med den bestemmelse, at enhver ny lovgivning ikke vil hæmme innovation uden grund.

Det er underforstået, at testene skal offentliggøres som en del af høringsprocessen for regeringens AI-hvidbog, offentliggjort i marts 2023.

Hvidbogen gik ikke uden kritik. Karen Yeung, professor ved University of Birmingham og ph.d.-kandidat Emma Ahmed-Rengers, sagde, at dokumentet var et utilstrækkeligt grundlag for sund politik. De tilføjede, at dokumentet ikke kan tjene som grundlag for en effektiv og legitim lovgivningsramme i offentlighedens interesse.

Nogle andre påpegede dog, at regulering af kunstig intelligens i Storbritannien er begyndt at blive taget op af sektortilsynsmyndigheder. Dette inkluderer Ofcom og Information Commissioner's Office, som er begyndt at udføre algoritmiske revisioner i deres jurisdiktionsområder.

UK aktiv på AI-normer internationalt

AI-virksomheder, herunder OpenAI, Google, DeepMind, Microsoft og Meta, underskrev flere frivillige politikker i november. De er bekymrede for sikkerheden af ​​deres produkter som en del af det globale AI-sikkerhedstopmøde, som den britiske regering har sammensat.

Disse virksomheder blev enige om at tillade Storbritanniens AI Safety Institute at evaluere sikkerheden af ​​de modeller, der gør produkter som ChatGPT før de bruges af virksomheder og forbrugere.

Derfor er evalueringen af ​​disse modeller i gang, men hvordan de vil blive gennemført, er stadig uklart. Det er også uklart, om AI-virksomhederne vil give omfattende adgang. Ifølge en embedsmand er de i øjeblikket heldige, da de er afhængige af goodwill på begge sider. Embedsmanden fortsatte med at sige, at evalueringen af ​​disse modeller er karakterafhængig og CEO-afhængig.

Tidsstempel:

Mere fra MetaNews