Asiantuntijat varoittavat tekoälyn aiheuttamasta sukupuuttoon, jos toimiin ei ryhdytä nyt

Asiantuntijat varoittavat tekoälyn aiheuttamasta sukupuuttoon, jos toimiin ei ryhdytä nyt

Lähdesolmu: 2688105

On toinenkin tuomittava avoin kirje tekoälyn tekemisestä. Tällä kertaa laaja joukko teknologiajohtajia, ML-valaisimia ja jopa muutama julkkis ovat allekirjoittaneet kehotuksensa maailmaa ottamaan vakavammin väitetyt tekoälyn aiheuttamat sukupuuttoon liittyvät uhat. 

Osuvampi lausunto, Center for AI Safetyn (CAIS) viesti, jonka ovat allekirjoittaneet henkilöt, kuten AI pioneer Geoffrey Hinton, OpenAI:n toimitusjohtaja Sam Altman, salausguru Martin Hellman, Microsoftin teknologiajohtaja Kevin Scott ja muut ovat yksi deklaratiivinen lause ennustaa apokalypsia, jos se jää huomiotta:

"Tekoälyn aiheuttaman sukupuuttoon kuolemisen riskin lieventämisen pitäisi olla globaali prioriteetti muiden yhteiskunnallisten riskien, kuten pandemioiden ja ydinsodan, rinnalla." 

Miksi niin lyhyt? Tavoitteena oli "havainnollistaa tekoälytutkijoiden, teknologiajohtajien ja professorien laajaa ja kasvavaa liittoumaa, joka on huolissaan tekoälyn sukupuuttoon liittyvistä riskeistä. Tarvitsemme panoksen laajaa tunnustamista, jotta voimme käydä hyödyllisiä poliittisia keskusteluja", CAIS:n johtaja Dan Hendrycks sanoi. Rekisteri.

CAIS ei mainitse teoksessaan yleistä tekoälyä (AGI). luettelo tekoälyn riskeistä, huomioimme. Ja nykyisen sukupolven mallit, kuten ChatGPT, eivät ole apokalyptinen uhka ihmiskunnalle, Hendrycks kertoi meille. Tämän viikon varoitus koskee sitä, mitä voi tapahtua seuraavaksi.

"Katastrofaaliset uhat, joihin tämä lausunto viittaa, liittyvät tulevaisuuden kehittyneisiin tekoälyjärjestelmiin", Hendrycks arvioi. Hän lisäsi, että tarvittavat edistysaskeleet "apokalyptisen uhan" tason saavuttamiseksi voivat olla vain kahdesta 10 vuoteen, ei useiden vuosikymmenten päässä. "Meidän täytyy valmistautua nyt. Tekoälyjärjestelmien, jotka voivat aiheuttaa katastrofaalisia seurauksia, ei kuitenkaan tarvitse olla AGI:itä", hän sanoi. 

Koska ihmiset ovat joka tapauksessa täysin rauhallisia

Yksi sellainen uhkaus on aseistaminen tai ajatus siitä, että joku voisi muuttaa hyväntahtoisen tekoälyn erittäin tuhoavaksi, kuten käyttämällä huumeetsintäbottia kemiallisten tai biologisten aseiden kehittämiseen tai käyttämällä vahvistusoppimista konepohjaisessa taistelussa. Ihmiset ovat kuitenkin jo melko kykeneviä valmistamaan sellaisia ​​aseita, jotka voivat viedä ihmisen, kaupunginosan, kaupungin tai maan.

Tekoälyä voitaisiin myös kouluttaa saavuttamaan tavoitteensa ottamatta huomioon yksilöllisiä tai yhteiskunnallisia arvoja, meitä varoitetaan. Se voi "heikentää" ihmisiä, jotka päätyvät luovuttamaan taitojaan ja kykyjään automatisoiduille koneille aiheuttaen tehon epätasapainon tekoälyn ohjaimien ja automaation syrjäyttämien välillä, tai sitä voidaan käyttää disinformaation levittämiseen tarkoituksellisesti tai muuten.

Jälleen, minkään siihen osallistuvan tekoälyn ei tarvitse olla yleistä, eikä ole liian vaikea nähdä, että nykyisen sukupolven tekoäly voi kehittyä aiheuttamaan sellaisia ​​riskejä, joista CAIS on huolissaan. Sinulla saattaa olla omat mielipiteesi siitä, kuinka tuhoisa tai kykenevä ohjelmisto voisi olla tai tulee olemaan ja mitä sillä todella saavutetaan.

CAIS:n argumentin mukaan on ratkaisevan tärkeää tutkia ja käsitellä tekoälyn kielteisiä vaikutuksia, jotka jo tuntuvat, ja muuttaa ne olemassa olevat vaikutukset ennakoiviksi. "Kun kamppailemme välittömien tekoälyriskien kanssa… tekoälyteollisuuden ja hallitusten ympäri maailmaa on myös otettava vakavasti riski, että tulevat tekoälyt voivat muodostaa uhan ihmisen olemassaololle", Hendrycks sanoi lausunnossaan.

”Maailma on onnistunut yhteistyössä lieventämään ydinsotaan liittyviä riskejä. Saman tason ponnisteluja tarvitaan tulevien tekoälyjärjestelmien aiheuttamiin vaaroihin puuttumiseksi", Hendrycks kehotti ja tuki häntä yritysten, akateemisten ja ajatusjohtajien luettelolla. 

Musk ei ole mukana

Muita allekirjoittajia ovat Google DeepMindin päätutkija Ian Goodfellow, filosofit David Chalmers ja Daniel Dennett, kirjailija ja bloggaaja Sam Harris sekä muusikko/Elon Muskin entinen Grimes. Miehestä itsestään puhuen, Muskin allekirjoitus puuttuu. 

Twitterin toimitusjohtaja oli allekirjoittaneiden joukossa avoin kirje Julkaisija Future of Life Institute viime maaliskuussa kehottaen a kuuden kuukauden tauko "GPT-4:tä tehokkaampien" tekoälyjärjestelmien koulutuksesta. Ei ole yllättävää, että OpenAI:n toimitusjohtaja Altmanin allekirjoitus puuttui että tietyn kirjeen, näennäisesti siksi, että se soitti hänen yritykseensä suoraan. 

OpenAI on sittemmin julkaissut omat varoituksensa edistyneen tekoälyn aiheuttamista uhkista ja kehotti perustamaan kansainvälisen atomienergiajärjestön kaltaisen maailmanlaajuisen valvontaelimen säätelemään tekoälyn käyttöä.

Tämä varoitus ja sääntelypyyntö, historiallisesti huonon ajoituksen tapauksessa, tuli samana päivänä Altman uhattuna vetää OpenAI ja ChatGPT sen kanssa EU:sta blokin yli AI-laki. Hänen tukemansa säännöt ovat yksi asia, mutta Altman kertoi Brysselille, että heidän ajatuksensa tekoälyn rajoittamisesta oli sääntelysilta liian pitkälle, kiitos paljon. 

EU-parlamentaarikot vastasi sanomalla, että OpenAI ei sanele niitä ja että jos yritys ei pysty noudattamaan hallinto- ja avoimuussääntöjä, "heidän järjestelmänsä eivät sovellu Euroopan markkinoille", totesi hollantilainen Euroopan parlamentin jäsen Kim van Sparrentak. 

Olemme pyytäneet OpenAI:lta selvennystä Altmanin asemiin ja päivitämme tätä tarinaa, jos saamme takaisin. ®

Aikaleima:

Lisää aiheesta Rekisteri