OpenAI poziva globalno agencijo, da regulira superinteligenco

OpenAI poziva globalno agencijo, da regulira superinteligenco

Izvorno vozlišče: 2674707

Mednarodna agencija bi morala biti zadolžena za inšpekcijo in revizijo umetne splošne inteligence, da bi zagotovila, da je tehnologija varna za človeštvo, pravijo najvišji vodstveni delavci pri proizvajalcu GPT-4 OpenAI.

Izvršni direktor Sam Altman ter soustanovitelja Greg Brockman in Ilya Sutskever so dejali, da je "predstavljivo", da bo umetna inteligenca v naslednjem desetletju pridobila izjemne sposobnosti, ki presegajo človeške.

»Glede potencialnih prednosti in slabosti bo superinteligenca močnejša od drugih tehnologij, s katerimi se je moralo človeštvo spopadati v preteklosti. Lahko imamo bistveno bolj uspešno prihodnost; vendar moramo obvladati tveganje, da pridemo do tja,« trojica Napisal v torek.

Trdijo, da se stroški gradnje tako zmogljive tehnologije le zmanjšujejo, saj si več ljudi prizadeva za njen napredek. Da bi nadzorovali napredek, bi morala razvoj nadzorovati mednarodna organizacija, kot je Mednarodna agencija za atomsko energijo (IAEA).

IAEA je bila ustanovljena leta 1957 v času, ko so se vlade bale, da bo med hladno vojno razvito jedrsko orožje. Agencija pomaga urejati jedrsko energijo in postavlja zaščitne ukrepe, da se jedrska energija ne uporablja v vojaške namene.

»Verjetno bomo sčasoma potrebovali nekaj podobnega IAEA za superobveščevalna prizadevanja; vsako prizadevanje nad določenim pragom zmogljivosti (ali virov, kot je računanje) bo moralo biti podvrženo mednarodnemu organu, ki lahko pregleda sisteme, zahteva revizije, preizkusi skladnost z varnostnimi standardi, postavi omejitve glede stopenj uvajanja in ravni varnosti itd. " rekli so.

Takšna skupina bi bila zadolžena za sledenje porabe računalništva in energije, ključnih virov, potrebnih za usposabljanje in zagon velikih in zmogljivih modelov.

»Skupaj bi se lahko strinjali, da je stopnja rasti zmogljivosti AI na meji omejena na določeno stopnjo na leto,« je predlagal vrh OpenAI. Podjetja bi se morala prostovoljno strinjati z inšpekcijskimi pregledi, agencija pa bi se morala osredotočiti na »zmanjševanje eksistencialnih tveganj«, ne pa na regulativna vprašanja, ki so opredeljena in določena s posameznimi zakoni posamezne države.

Prejšnji teden je Altman predstavil zamisel, da bi morala podjetja pridobiti licenco za izdelavo modelov z naprednimi zmogljivostmi nad določenim pragom v senatu sluha. Njegov predlog je bil pozneje kritiziran, saj bi lahko nepošteno vplival na sisteme umetne inteligence, ki so jih zgradila manjša podjetja ali odprtokodna skupnost, za katere je manj verjetno, da bodo imeli sredstva za izpolnjevanje zakonskih zahtev.

"Menimo, da je pomembno dovoliti podjetjem in odprtokodnim projektom, da razvijejo modele pod pomembnim pragom zmogljivosti, brez vrste regulacije, ki jo opisujemo tukaj (vključno z obremenjujočimi mehanizmi, kot so licence ali revizije)," so povedali.

Elon Musk je bil konec marca eden od 1,000 podpisnikov odprtega pisma, ki je pozvalo k šestmesečnemu premoru pri razvoju in usposabljanju umetne inteligence, zmogljivejše od GPT4, zaradi možnih tveganj za človeštvo, nekaj, kar je Altman potrjena sredi aprila je počel.

"Zmogljive sisteme umetne inteligence je treba razviti šele, ko smo prepričani, da bodo njihovi učinki pozitivni in da bodo njihova tveganja obvladljiva," je navedeno v pismu.

Izvršni direktor Alphabeta in Googla Sundar Pichai je konec tedna napisal prispevek v Financial Timesu, rek: »Še vedno verjamem, da je umetna inteligenca preveč pomembna, da je ne bi regulirali, in preveč pomembna, da je ne bi dobro regulirali«. ®

Časovni žig:

Več od Register