OpenAI opfordrer til et globalt agentur til at regulere superintelligens

OpenAI opfordrer til et globalt agentur til at regulere superintelligens

Kildeknude: 2674707

Et internationalt agentur bør være ansvarlig for at inspicere og auditere kunstig generel intelligens for at sikre, at teknologien er sikker for menneskeheden, ifølge topledere hos GPT-4-producenten OpenAI.

Administrerende direktør Sam Altman og medstifterne Greg Brockman og Ilya Sutskever sagde, at det er "tænkeligt", at AI vil opnå ekstraordinære evner, der overstiger mennesker i løbet af det næste årti.

"Med hensyn til både potentielle fordele og ulemper, vil superintelligens være mere kraftfuld end andre teknologier, menneskeheden har måttet kæmpe med tidligere. Vi kan få en dramatisk mere velstående fremtid; men vi er nødt til at styre risikoen for at nå dertil,” trioen skrev på tirsdag.

Omkostningerne ved at bygge så kraftfuld teknologi falder kun, efterhånden som flere mennesker arbejder på at fremme den, hævdede de. For at kontrollere fremskridt bør udviklingen overvåges af en international organisation som Det Internationale Atomenergiagentur (IAEA).

IAEA blev etableret i 1957 i en tid, hvor regeringerne frygtede, at atomvåben ville blive udviklet under den kolde krig. Agenturet hjælper med at regulere atomkraft og sætter sikkerhedsforanstaltninger for at sikre, at atomenergi ikke bruges til militære formål.

"Vi vil sandsynligvis i sidste ende få brug for noget som et IAEA til superefterretningsindsats; enhver indsats over en vis kapacitet (eller ressourcer som computer-tærskel) skal være underlagt en international myndighed, der kan inspicere systemer, kræve audit, teste for overholdelse af sikkerhedsstandarder, lægge restriktioner på udrulningsgrader og sikkerhedsniveauer osv. " de sagde.

En sådan gruppe ville være ansvarlig for at spore computer- og energiforbrug, vitale ressourcer, der er nødvendige for at træne og køre store og kraftfulde modeller.

"Vi kunne i fællesskab blive enige om, at vækstraten i AI-kapacitet ved grænsen er begrænset til en vis hastighed om året," foreslog OpenAI's topchef. Virksomheder skal frivilligt acceptere inspektioner, og agenturet bør fokusere på at "reducere den eksistentielle risiko", ikke regulatoriske spørgsmål, der er defineret og fastsat af et lands individuelle love.

I sidste uge fremsatte Altman ideen om, at virksomheder skulle opnå en licens til at bygge modeller med avancerede kapaciteter over en bestemt tærskel i et senat høre. Hans forslag blev senere kritiseret, da det uretfærdigt kunne påvirke AI-systemer bygget af mindre virksomheder eller open source-samfundet, som er mindre tilbøjelige til at have ressourcerne til at opfylde de juridiske krav.

"Vi synes, det er vigtigt at tillade virksomheder og open source-projekter at udvikle modeller under en betydelig kapacitetstærskel uden den form for regulering, vi beskriver her (inklusive byrdefulde mekanismer som licenser eller revisioner)," sagde de.

Elon Musk var i slutningen af ​​marts en af ​​1,000 underskrivere af et åbent brev, der opfordrede til en seks måneders pause i udviklingen og træningen af ​​AI, der er stærkere end GPT4 på grund af de potentielle risici for menneskeheden, noget som Altman bekræftet i midten af ​​april gjorde det.

"Kraftfulde AI-systemer bør kun udvikles, når vi er sikre på, at deres virkninger vil være positive, og deres risici vil være håndterbare," hedder det i brevet.

Alphabet og Googles administrerende direktør Sundar Pichai skrev et stykke i Financial Times i weekenden, siger: "Jeg tror stadig, at AI er for vigtig til ikke at regulere, og for vigtig til ikke at regulere godt". ®

Tidsstempel:

Mere fra Registret