OpenAI solicită agenției globale să reglementeze superintelligence

OpenAI solicită agenției globale să reglementeze superintelligence

Nodul sursă: 2674707

O agenție internațională ar trebui să fie responsabilă de inspectarea și auditarea inteligenței generale artificiale pentru a se asigura că tehnologia este sigură pentru umanitate, potrivit directorilor de top ai producătorului GPT-4 OpenAI.

CEO-ul Sam Altman și co-fondatorii Greg Brockman și Ilya Sutskever au spus că este „conceput” ca AI să obțină abilități extraordinare care depășesc oamenii în următorul deceniu.

„În ceea ce privește atât potențialele avantaje, cât și dezavantaje, superinteligența va fi mai puternică decât alte tehnologii cu care umanitatea a trebuit să se confrunte în trecut. Putem avea un viitor dramatic mai prosper; dar trebuie să gestionăm riscul pentru a ajunge acolo”, trio-ul scris marti.

Costurile construirii unei astfel de tehnologii puternice sunt doar în scădere pe măsură ce mai mulți oameni lucrează pentru a o promova, au argumentat ei. Pentru a controla progresul, dezvoltarea ar trebui să fie supravegheată de o organizație internațională precum Agenția Internațională pentru Energie Atomică (AIEA).

AIEA a fost înființată în 1957, într-o perioadă în care guvernele se temeau că armele nucleare vor fi dezvoltate în timpul Războiului Rece. Agenția ajută la reglementarea energiei nucleare și stabilește garanții pentru a se asigura că energia nucleară nu este utilizată în scopuri militare.

„Este probabil ca în cele din urmă să avem nevoie de ceva de genul AIEA pentru eforturile de superspionaj; orice efort care depășește un anumit prag de capacitate (sau resurse, cum ar fi calcularea) va trebui să fie supus unei autorități internaționale care poate inspecta sistemele, solicita audituri, testează conformitatea cu standardele de siguranță, impune restricții privind gradele de implementare și nivelurile de securitate etc. " au zis.

Un astfel de grup ar fi responsabil de urmărirea calculului și a consumului de energie, resurse vitale necesare pentru a antrena și a rula modele mari și puternice.

„Am putea fi de acord colectiv că rata de creștere a capacității AI la frontieră este limitată la o anumită rată pe an”, a sugerat responsabilul OpenAI. Companiile ar trebui să fie de acord voluntar cu inspecțiile, iar agenția ar trebui să se concentreze pe „reducerea riscului existențial”, nu pe probleme de reglementare care sunt definite și stabilite de legile individuale ale unei țări.

Săptămâna trecută, Altman a prezentat ideea că companiile ar trebui să obțină o licență pentru a construi modele cu capabilități avansate peste un anumit prag într-un Senat. auz. Sugestia sa a fost ulterior criticată, deoarece ar putea avea un impact incorect asupra sistemelor AI construite de companii mai mici sau de comunitatea open source, care este mai puțin probabil să aibă resursele necesare pentru a îndeplini cerințele legale.

„Credem că este important să permitem companiilor și proiectelor open source să dezvolte modele sub un prag de capacitate semnificativ, fără tipul de reglementare pe care o descriem aici (inclusiv mecanisme împovărătoare, cum ar fi licențele sau auditurile)”, au spus aceștia.

La sfârșitul lunii martie, Elon Musk a fost unul dintre cei 1,000 de semnatari ai unei scrisori deschise care solicita o pauză de șase luni în dezvoltarea și antrenamentul AI mai puternic decât GPT4 din cauza riscurilor potențiale pentru umanitate, lucru pe care Altman. confirmat la mijlocul lunii aprilie se făcea.

„Sistemele puternice de inteligență artificială ar trebui dezvoltate numai după ce suntem încrezători că efectele lor vor fi pozitive și că riscurile vor fi gestionate”, se spune în scrisoare.

CEO-ul Alphabet și Google, Sundar Pichai, a scris un articol în Financial Times în weekend, spunând: „Încă cred că AI este prea important pentru a nu reglementa și prea important pentru a nu reglementa bine”. ®

Timestamp-ul:

Mai mult de la Registrul