Storbritannien kommer att svara på AI-vitboken med regulatoriska tester

Storbritannien kommer att svara på AI-vitboken med regulatoriska tester

Källnod: 3070094

Den brittiska regeringen kommer att publicera tester för nya AI-lagar, med fokus på säkerhet och industritillväxt. AI Safety Institute kommer att spela en roll, med bestämmelser som utlöses av säkerhetsrisker eller bristande efterlevnad av AI-företag som OpenAI och Google.

Lagarna är i linje med regeringens fokus på att motstå att skapa ett hårdare regelverk för snabbutvecklande teknik, enligt Financial Times. Under de kommande veckorna kommer brittiska ministrar att publicera kriterierna, som kommer att ange under vilka omständigheter de skulle införa begränsningar för kraftfulla modeller för artificiell intelligens (AI) skapade av Google, OpenAI och andra företag.

Smakämnen Brittiska regeringen införa ett system för att övervaka detta, vilket är AI Safety Institute, ett organ som består av akademiker och lärande experter. Om AI Safety Institute inte lyckas identifiera riskerna kring tekniken kommer ett ingripande att utlösas. Ett annat test som kan utlösa lagstiftning är om AI-företag misslyckas med att upprätthålla frivilliga åtaganden för att undvika skada.

Storbritanniens regerings inställning till AI

Ett uttalande som publicerats av regeringen bekräftar att den brittiska regeringens lätta tillvägagångssätt för att reglera AI kommer att återspeglas i publiceringen av dessa tester. Enligt uttalandet kommer de att vidta åtgärder för att minska riskerna och stödja säker och ansvarsfull AI-teknik såsom krävs. Uttalandet fortsatte med att säga att de skulle upprätthålla en pro-innovationsstrategi i nära samråd med civilsamhället och industrin.

Följaktligen kommer filosofin att gå igenom "testen" för att klara AI-lagstiftningen som föreslås av den brittiska regeringen med bestämmelse om att eventuella nya lagar inte skulle försämra innovation utan anledning.

Det är underförstått att testerna ska publiceras som en del av samrådsprocessen för regeringens AI-vitbok, publicerad i mars 2023.

Vitboken gick inte utan kritik. Karen Yeung, professor vid University of Birmingham och doktorand Emma Ahmed-Rengers, sa att dokumentet var en otillräcklig grund för sund politik. De tillade att dokumentet inte kan tjäna som grund för ett effektivt och legitimt regelverk i allmänhetens intresse.

Men några andra personer påpekade att reglering av AI i Storbritannien har börjat tas upp av sektoriella tillsynsmyndigheter. Detta inkluderar Ofcom och Information Commissioner's Office, som har börjat genomföra algoritmiska granskningar inom sina jurisdiktionsområden.

Storbritannien aktiv på AI-normer internationellt

AI-företag, inklusive OpenAI, Google, DeepMind, Microsoft och Meta, undertecknade flera frivilliga policyer i november. De är oroade över säkerheten för sina produkter som en del av det globala AI-säkerhetstoppmötet som satts samman av den brittiska regeringen.

Dessa företag gick med på att tillåta Storbritanniens AI Safety Institute att utvärdera säkerheten hos de modeller som gör produkter som ChatGPT innan de används av företag och konsumenter.

Utvärderingen av dessa modeller pågår därför, men hur de kommer att genomföras är fortfarande oklart. Det är också oklart om AI-företagen kommer att tillhandahålla omfattande åtkomst. Enligt en regeringstjänsteman har de för närvarande tur eftersom de är beroende av goodwill på båda sidor. Tjänstemannen fortsatte med att säga att utvärderingen av dessa modeller är karaktärsberoende och VD-beroende.

Tidsstämpel:

Mer från MetaNews