OpenAI etterlyser et globalt byrå for å regulere superintelligens

OpenAI etterlyser et globalt byrå for å regulere superintelligens

Kilde node: 2674707

Et internasjonalt byrå bør ha ansvaret for å inspisere og revidere kunstig generell intelligens for å sikre at teknologien er trygg for menneskeheten, ifølge toppledere hos GPT-4-produsenten OpenAI.

Administrerende direktør Sam Altman og medgründerne Greg Brockman og Ilya Sutskever sa at det er "tenkelig" at AI vil oppnå ekstraordinære evner som overgår mennesker i løpet av det neste tiåret.

"Når det gjelder både potensielle fordeler og ulemper, vil superintelligens være kraftigere enn andre teknologier menneskeheten har måttet slite med tidligere. Vi kan ha en dramatisk mer velstående fremtid; men vi må håndtere risiko for å komme dit,» trioen skrev på tirsdag.

Kostnadene ved å bygge så kraftig teknologi reduseres bare ettersom flere jobber for å fremme den, hevdet de. For å kontrollere fremdriften bør utviklingen overvåkes av en internasjonal organisasjon som Det internasjonale atomenergibyrået (IAEA).

IAEA ble opprettet i 1957 i en tid da regjeringer fryktet at atomvåpen ville bli utviklet under den kalde krigen. Byrået hjelper til med å regulere atomkraft, og setter sikkerhetstiltak for å sikre at atomenergi ikke brukes til militære formål.

«Vi vil sannsynligvis til slutt trenge noe sånt som et IAEA for superetterretningsinnsats; enhver innsats over en viss evne (eller ressurser som data)-terskel må være underlagt en internasjonal myndighet som kan inspisere systemer, kreve revisjoner, teste for samsvar med sikkerhetsstandarder, sette begrensninger på utplasseringsgrader og sikkerhetsnivåer, etc. " sa de.

En slik gruppe vil ha ansvaret for å spore databehandling og energibruk, viktige ressurser som trengs for å trene og kjøre store og kraftige modeller.

"Vi kan kollektivt bli enige om at veksten i AI-evne ved grensen er begrenset til en viss rate per år," foreslo OpenAIs toppleder. Bedrifter må frivillig gå med på inspeksjoner, og byrået bør fokusere på å "redusere eksistensiell risiko", ikke regulatoriske spørsmål som er definert og fastsatt av et lands individuelle lover.

Forrige uke fremmet Altman ideen om at selskaper bør få lisens til å bygge modeller med avanserte muligheter over en bestemt terskel i et senat hørsel. Forslaget hans ble senere kritisert siden det urettferdig kunne påvirke AI-systemer bygget av mindre selskaper eller åpen kildekode-fellesskapet som er mindre sannsynlig å ha ressursene til å oppfylle lovkravene.

"Vi synes det er viktig å la selskaper og åpen kildekode-prosjekter utvikle modeller under en betydelig kapasitetsgrense, uten den typen regulering vi beskriver her (inkludert tyngende mekanismer som lisenser eller revisjoner)," sa de.

Elon Musk var i slutten av mars en av 1,000 underskrivere av et åpent brev som ba om en seks måneders pause i å utvikle og trene AI kraftigere enn GPT4 på grunn av den potensielle risikoen for menneskeheten, noe Altman bekreftet i midten av april gjorde det seg.

"Kraftige AI-systemer bør bare utvikles når vi er sikre på at effektene deres vil være positive og risikoene deres vil være håndterbare," heter det i brevet.

Alfabet og Google-sjef Sundar Pichai skrev et stykke i Financial Times i helgen, sier: "Jeg tror fortsatt AI er for viktig til ikke å regulere, og for viktig til å ikke regulere godt". ®

Tidstempel:

Mer fra Registeret