Groot-Brittannië gaat reageren op het AI-witboek met wettelijke tests

Groot-Brittannië gaat reageren op het AI-witboek met wettelijke tests

Bronknooppunt: 3070094

De Britse regering zal tests publiceren voor nieuwe AI-wetten, waarbij de nadruk ligt op veiligheid en groei van de industrie. Het AI Safety Institute zal een rol spelen, met regelgeving die wordt veroorzaakt door veiligheidsrisico's of niet-naleving door AI-bedrijven als OpenAI en Google.

Volgens de Financial Times zijn de wetten in lijn met de focus van de regering op het weerstaan ​​van het creëren van een strenger regelgevingsregime voor zich snel ontwikkelende technologie. De komende weken zullen de Britse ministers de criteria publiceren, waarin de omstandigheden zullen worden vermeld waaronder zij beperkingen zouden opleggen aan krachtige kunstmatige intelligentie (AI)-modellen die zijn gemaakt door Google, OpenAI en andere bedrijven.

De Britse regering een systeem opgezet om dit in de gaten te houden, namelijk het AI Safety Institute, een orgaan dat bestaat uit academici en onderwijsexperts. Als het AI Safety Institute er niet in slaagt de risico’s rond de technologie in kaart te brengen, wordt er ingegrepen. Een andere test die tot wetgeving kan leiden, is als AI-bedrijven hun vrijwillige toezeggingen om schade te voorkomen niet nakomen.

De benadering van de Britse overheid ten aanzien van AI

Een door de regering gepubliceerde verklaring bevestigt dat de luchtige aanpak van de Britse regering bij het reguleren van AI zal worden weerspiegeld in de publicatie van deze tests. Volgens de verklaring zullen zij actie ondernemen om de risico’s te beperken en veilig en verantwoord te ondersteunen AI-technologie zoals gevraagd. De verklaring vervolgde met te zeggen dat zij een pro-innovatiebenadering zouden handhaven in nauw overleg met het maatschappelijk middenveld en de industrie.

Bijgevolg zal de filosofie de ‘testen’ doorstaan ​​om AI-wetgeving te doorstaan ​​die door de Britse regering zal worden voorgesteld, met de bepaling dat nieuwe wetten de innovatie niet zonder reden zouden belemmeren.

Het is duidelijk dat de tests zullen worden gepubliceerd als onderdeel van het consultatieproces voor het AI-witboek van de overheid, gepubliceerd in maart 2023.

De whitepaper verliep niet zonder kritiek. Karen Yeung, hoogleraar aan de Universiteit van Birmingham en promovendus Emma Ahmed-Rengers, zei dat het document een ontoereikende basis was voor gezond beleid. Ze voegden eraan toe dat het document niet kan dienen als basis voor een effectief en legitiem regelgevingskader in het belang van het publiek.

Sommige andere mensen wezen er echter op dat de regulering van AI in Groot-Brittannië steeds meer wordt opgepakt door sectorale toezichthouders. Dit geldt ook voor Ofcom en het Information Commissioner's Office, die zijn begonnen met het uitvoeren van algoritmische audits in hun rechtsgebied.

VK internationaal actief op het gebied van AI-normen

AI-bedrijven, waaronder OpenAI, Google, DeepMind, Microsoft en Meta, hebben in november verschillende vrijwillige beleidsmaatregelen ondertekend. Ze maken zich zorgen over de veiligheid van hun producten als onderdeel van de mondiale AI-veiligheidstop, georganiseerd door de Britse regering.

Deze bedrijven stemden ermee in om de Het Britse AI-veiligheidsinstituut om de veiligheid te evalueren van de modellen die producten maken zoals ChatGPT voordat ze door bedrijven en consumenten worden gebruikt.

Bijgevolg is de evaluatie van deze modellen aan de gang, maar hoe ze zullen worden uitgevoerd blijft onduidelijk. Ook is het onduidelijk of de AI-bedrijven uitgebreide toegang zullen bieden. Volgens een regeringsfunctionaris hebben ze momenteel geluk, omdat ze afhankelijk zijn van de goede wil van beide kanten. De functionaris vervolgde met te zeggen dat de evaluatie van deze modellen karakterafhankelijk en CEO-afhankelijk is.

Tijdstempel:

Meer van MetaNieuws