Strokovnjaki opozarjajo na izumrtje umetne inteligence, če ne ukrepamo zdaj

Strokovnjaki opozarjajo na izumrtje umetne inteligence, če ne ukrepamo zdaj

Izvorno vozlišče: 2688105

Obstaja še eno obsojajoče odprto pismo o umetni inteligenci, ki kroži. Tokrat je široka paleta tehnoloških voditeljev, svetil ML in celo nekaj zvezdnikov pozvala svet, naj resneje vzame domnevne grožnje na ravni izumrtja, ki jih predstavlja umetna inteligenca. 

Bolj primerno izjava, sporočilo Centra za varnost umetne inteligence (CAIS), ki so ga podpisali posamezniki, kot je AI pionir Geoffrey Hinton, izvršni direktor OpenAI Sam Altman, guru šifriranja Martin Hellman, Microsoftov tehnični direktor Kevin Scott in drugi so enojni izjavni stavek napoveduje apokalipso, če ostane neupoštevana:

"Zmanjšanje tveganja izumrtja zaradi umetne inteligence bi moralo biti globalna prednostna naloga poleg drugih družbenih tveganj, kot so pandemije in jedrska vojna." 

Zakaj tako kratko? Cilj je bil »prikazati široko in rastočo koalicijo znanstvenikov AI, tehnoloških vodij in profesorjev, ki so zaskrbljeni zaradi tveganj izumrtja AI. Potrebujemo splošno priznanje vložkov, da bomo lahko imeli koristne razprave o politiki,« je povedal direktor CAIS Dan Hendrycks. Register.

CAIS v svojem delu ne omenja umetne splošne inteligence (AGI). seznam tveganj umetne inteligence, ugotavljamo. In modeli trenutne generacije, kot je ChatGPT, niso apokaliptična grožnja človeštvu, nam je povedal Hendrycks. Opozorilo tega tedna je o tem, kaj lahko sledi.

"Vrste katastrofalnih groženj, na katere se nanaša ta izjava, so povezane s prihodnjimi naprednimi sistemi umetne inteligence," je menil Hendrycks. Dodal je, da bo potreben napredek, potreben za dosego stopnje "apokaliptične grožnje", morda šele čez dve do deset let, ne več desetletij. »Zdaj se moramo pripraviti. Vendar ni nujno, da so sistemi AI, ki bi lahko povzročili katastrofalne rezultate, AGI,« je dejal. 

Ker smo ljudje tako ali tako popolnoma miroljubni

Eden takih Grožnja je orožje ali zamisel, da bi nekdo lahko dobronamerno umetno inteligenco spremenil v zelo uničujočo, na primer z uporabo robota za odkrivanje drog za razvoj kemičnega ali biološkega orožja ali z uporabo učenja okrepitve za strojno temelječ boj. Kljub temu so ljudje že precej sposobni izdelati te vrste orožja, ki lahko uniči osebo, sosesko, mesto ali državo.

Opozorjeni smo, da bi lahko umetno inteligenco usposobili za doseganje svojih ciljev brez upoštevanja individualnih ali družbenih vrednot. Lahko "oslabi" ljudi, ki na koncu prepustijo veščine in sposobnosti avtomatiziranim strojem, kar povzroči neravnovesje moči med krmilniki AI in tistimi, ki jih je izpodrinila avtomatizacija, ali pa se uporabi za širjenje dezinformacij, namerno ali drugače.

Še enkrat, nobena od umetne inteligence, ki je pri tem vključena, ne sme biti splošna in ni preveč težko videti potenciala, da bi se umetna inteligenca trenutne generacije razvila tako, da bi predstavljala tveganja, ki skrbijo CAIS. Morda imate svoje mnenje o tem, kako resnično uničujoča ali sposobna bi lahko bila ali bo programska oprema in kaj bi lahko dejansko dosegla.

Ključno je, pravi argument CAIS, preučiti in obravnavati negativne vplive umetne inteligence, ki se že čutijo, ter te obstoječe vplive spremeniti v predvidevanje. "Ko se spopadamo s takojšnjimi tveganji umetne inteligence … se morajo industrija umetne inteligence in vlade po vsem svetu resno soočiti tudi s tveganjem, da bi umetna inteligenca v prihodnosti lahko ogrozila človeški obstoj," je Hendrycks je dejal v izjavi.

»Svet je uspešno sodeloval pri ublažitvi tveganj, povezanih z jedrsko vojno. Enaka stopnja truda je potrebna za obravnavo nevarnosti, ki jih predstavljajo prihodnji sistemi umetne inteligence,« je pozval Hendrycks, pri čemer ga podpira seznam podjetniških, akademskih in miselnih voditeljev. 

Musk ni na krovu

Drugi podpisniki so glavni znanstvenik Google DeepMind Ian Goodfellow, filozofa David Chalmers in Daniel Dennett, avtor in bloger Sam Harris ter bivši glasbenik/Elon Musk, Grimes. Ko že govorimo o človeku samem, Muskovega podpisa ni. 

Izvršni direktor Twitterja je med tistimi, ki so podpisali an Odprto pismo marca lani objavil Inštitut Future of Life in pozval a šest mesecev premora o usposabljanju sistemov AI, »močnejših od GPT-4«. Ni presenetljivo, da podpisa izvršnega direktorja OpenAI Altmana ni bilo da posebno pismo, domnevno zato, ker je njegovo podjetje neposredno poklicalo ven. 

Od takrat je izšel OpenAI lastna opozorila o grožnjah, ki jih predstavlja napredna umetna inteligenca, in pozval k ustanovitvi globalnega nadzornega organa, podobnega Mednarodni agenciji za atomsko energijo, ki bi urejal uporabo umetne inteligence.

To opozorilo in regulativni poziv, v primeru zgodovinsko slabega časa, je prišel isti dan, ko je Altman ogrožene umakniti OpenAI in z njim ChatGPT iz EU čez blok Zakon o umetni inteligenci. Pravila, ki jih podpira, so ena stvar, toda Altman je Bruslju povedal, da je njihova ideja o omejitvi umetne inteligence regulativni most predaleč, hvala lepa. 

EU parlamentarci odzvala z besedami, da jih ne bi narekoval OpenAI in da če podjetje ne more upoštevati osnovnih pravil upravljanja in preglednosti, "njihovi sistemi niso primerni za evropski trg," je zatrdil nizozemski poslanec v Evropskem parlamentu Kim van Sparrentak. 

Prosili smo OpenAI za pojasnilo o Altmanovih stališčih in posodobili bomo to zgodbo, če se nam oglasijo. ®

Časovni žig:

Več od Register