Storbritannia vil svare på AI White Paper med regulatoriske tester

Storbritannia vil svare på AI White Paper med regulatoriske tester

Kilde node: 3070094

Den britiske regjeringen vil publisere tester for nye AI-lover, med fokus på sikkerhet og industrivekst. AI Safety Institute vil spille en rolle, med forskrifter utløst av sikkerhetsrisikoer eller manglende overholdelse av AI-firmaer som OpenAI og Google.

Lovene er i tråd med regjeringens fokus på å motstå å skape et tøffere reguleringsregime for hurtigutviklende teknologi, ifølge Financial Times. I løpet av de kommende ukene vil britiske ministre publisere kriteriene, som vil angi omstendighetene under hvilke de ville vedta fortauskanter på kraftige kunstig intelligens (AI)-modeller laget av Google, OpenAI og andre selskaper.

De Britisk regjering satt på plass et system for å se dette, som er AI Safety Institute, et organ som består av akademikere og læringseksperter. Hvis AI Safety Institute ikke klarer å identifisere risikoene rundt teknologien, vil en intervensjon bli utløst. En annen test som kan utløse lovgivning er hvis AI-selskaper ikke klarer å opprettholde frivillige forpliktelser for å unngå skade.

Storbritannias regjerings tilnærming til AI

En uttalelse publisert av regjeringen bekrefter at den britiske regjeringens lett-touch-tilnærming til å regulere AI vil gjenspeiles i publiseringen av disse testene. I følge uttalelsen vil de iverksette tiltak for å redusere risikoer og støtte trygt og ansvarlig AI teknologi som kreves. Uttalelsen fortsatte med å si at de vil opprettholde en pro-innovasjonstilnærming i nært samråd med sivilsamfunnet og industrien.

Følgelig vil filosofien gå gjennom "testene" for å passere AI-lovgivningen som foreslås av den britiske regjeringen med bestemmelsen om at eventuelle nye lover ikke vil svekke innovasjon uten grunn.

Det er underforstått at testene skal publiseres som en del av høringsprosessen for regjeringens AI-melding, publisert i mars 2023.

Hvitboken gikk ikke uten kritikk. Karen Yeung, professor ved University of Birmingham og PhD-kandidat Emma Ahmed-Rengers, sa at dokumentet var et utilstrekkelig grunnlag for forsvarlig politikk. De la til at dokumentet ikke kan tjene som grunnlaget for et effektivt og legitimt regelverk i offentlighetens interesse.

Noen andre påpekte imidlertid at regulering av AI i Storbritannia har begynt å bli tatt opp av sektorregulatorer. Dette inkluderer Ofcom og Information Commissioner's Office, som har begynt å gjennomføre algoritmiske revisjoner i sine jurisdiksjonsområder.

Storbritannia aktiv på AI-normer internasjonalt

AI-selskaper, inkludert OpenAI, Google, DeepMind, Microsoft og Meta, signerte flere frivillige retningslinjer i november. De er bekymret for sikkerheten til produktene deres som en del av det globale AI-sikkerhetstoppmøtet satt sammen av den britiske regjeringen.

Disse selskapene ble enige om å tillate Storbritannias AI Safety Institute å evaluere sikkerheten til modellene som lager produkter som ChatGPT før de brukes av bedrifter og forbrukere.

Følgelig er evalueringen av disse modellene i gang, men hvordan de skal gjennomføres er fortsatt uklart. Det er også uklart om AI-selskapene vil gi omfattende tilgang. Ifølge en myndighetsperson er de for øyeblikket heldige, da de er avhengige av goodwill på begge sider. Tjenestemannen fortsatte med å si at evalueringen av disse modellene er karakteravhengig og administrerende direktør.

Tidstempel:

Mer fra MetaNews