OpenAI vaatii globaalia virastoa säätelemään superälyä

OpenAI vaatii globaalia virastoa säätelemään superälyä

Lähdesolmu: 2674707

GPT-4:n valmistajan OpenAI:n huippujohtajien mukaan kansainvälisen viraston tulisi olla vastuussa yleisen tekoälyn tarkastamisesta ja auditoinnista varmistaakseen, että tekniikka on turvallinen ihmiskunnalle.

Toimitusjohtaja Sam Altman ja perustajat Greg Brockman ja Ilya Sutskever sanoivat, että on "ajateltavissa", että tekoäly saa seuraavan vuosikymmenen aikana poikkeuksellisia kykyjä, jotka ylittävät ihmiset.

”Sekä mahdollisten etujen että haittojen suhteen superäly on tehokkaampi kuin muut tekniikat, joita ihmiskunnan on joutunut kamppailemaan aiemmin. Meillä voi olla dramaattisesti vauraampi tulevaisuus; mutta meidän on hallittava riskiä päästäksemme sinne”, trio kirjoitti tiistaina.

He väittivät, että tällaisen tehokkaan teknologian rakentamisen kustannukset vain pienenevät, kun yhä useammat ihmiset työskentelevät sen edistämiseksi. Edistyksen hallitsemiseksi kehitystä tulisi valvoa kansainvälisen järjestön, kuten Kansainvälisen atomienergiajärjestön (IAEA) toimesta.

IAEA perustettiin vuonna 1957 aikana, jolloin hallitukset pelkäsivät ydinaseiden kehittämistä kylmän sodan aikana. Virasto auttaa säätelemään ydinvoimaa ja asettaa suojatoimia varmistaakseen, että ydinenergiaa ei käytetä sotilaallisiin tarkoituksiin.

"Tarvitsemme todennäköisesti lopulta jotain IAEA:n kaltaista supertiedustelutoimintaa varten; kaikki tietyn kyvykkyyden (tai resurssien, kuten laskenta) kynnyksen ylittävät ponnistelut on alistettava kansainväliselle viranomaiselle, joka voi tarkastaa järjestelmät, vaatia auditointeja, testata turvallisuusstandardien noudattamista, asettaa rajoituksia käyttöasteisiin ja turvallisuustasoihin jne. " he sanoivat.

Tällainen ryhmä vastaisi laskennan ja energian käytön seurannasta, jotka ovat tärkeitä resursseja suurten ja tehokkaiden mallien kouluttamiseen ja käyttämiseen.

"Voimme yhdessä sopia siitä, että tekoälykyvyn kasvu rajalla on rajoitettu tiettyyn vauhtiin vuodessa", OpenAI:n huippujohtaja ehdotti. Yritysten olisi vapaaehtoisesti suostuttava tarkastuksiin, ja viraston tulisi keskittyä "eksistenttiaalisen riskin vähentämiseen", ei sääntöihin, jotka määritellään ja määrätään maan yksittäisissä laeissa.

Altman esitti viime viikolla senaatissa ajatuksen, että yritysten pitäisi saada lupa rakentaa malleja, joissa on edistyneitä ominaisuuksia yli tietyn kynnyksen. kuulo. Hänen ehdotustaan ​​kritisoitiin myöhemmin, koska se voi vaikuttaa epäoikeudenmukaisesti pienten yritysten tai avoimen lähdekoodin yhteisön rakentamiin tekoälyjärjestelmiin, joilla ei todennäköisesti ole resursseja täyttää lakisääteisiä vaatimuksia.

"Mielestämme on tärkeää antaa yrityksille ja avoimen lähdekoodin hankkeille mahdollisuus kehittää malleja alle merkittävän kykykynnyksen ilman sellaista sääntelyä, jota tässä kuvataan (mukaan lukien raskaat mekanismit, kuten lisenssit tai auditoinnit)," he sanoivat.

Elon Musk oli maaliskuun lopussa yksi 1,000 4 allekirjoittaneesta avoimessa kirjeessä, jossa vaadittiin kuuden kuukauden taukoa GPTXNUMX:tä tehokkaamman tekoälyn kehittämiseen ja kouluttamiseen ihmiskunnalle mahdollisesti kohdistuvien riskien vuoksi. Altman vahvistettu huhtikuun puolivälissä se teki.

"Tehokkaita tekoälyjärjestelmiä tulisi kehittää vasta sitten, kun olemme varmoja, että niiden vaikutukset ovat myönteisiä ja niiden riskit ovat hallittavissa", kirjeessä todettiin.

Alphabetin ja Googlen toimitusjohtaja Sundar Pichai kirjoitti artikkelin Financial Timesissa viikonloppuna, sanonta: "Uskon edelleen, että tekoäly on liian tärkeä, jotta sitä ei säännellä, ja liian tärkeä, jotta sitä ei säännellä hyvin". ®

Aikaleima:

Lisää aiheesta Rekisteri