Eksperdid hoiatavad tehisintellektist väljasuremise eest, kui praegu meetmeid ei võeta

Eksperdid hoiatavad tehisintellektist väljasuremise eest, kui praegu meetmeid ei võeta

Allikasõlm: 2688105

On veel üks hukatuslik avatud kiri selle kohta, et tehisintellekt teeb tiirus. Seekord on alla kirjutanud suur hulk tehnoloogialiidreid, ML-i valgustajaid ja isegi mõned kuulsused, et kutsuda maailma üles võtma tehisintellektist tulenevaid väidetavaid väljasuremisohte tõsisemalt. 

Õigem avaldus, AI ohutuse keskuse (CAIS) sõnum, millele on alla kirjutanud sellised isikud nagu AI pioneer Geoffrey Hinton, OpenAI tegevjuht Sam Altman, krüpteerimisguru Martin Hellman, Microsofti tehnoloogiadirektor Kevin Scott ja teised on üksik deklaratiivne lause apokalüpsise ennustamine, kui see tähelepanuta jääb:

"AI-st väljasuremisohu leevendamine peaks olema ülemaailmne prioriteet koos muude ühiskondlike riskidega, nagu pandeemiad ja tuumasõda." 

Miks nii lühike? Eesmärk oli „demonstreerida tehisintellekti teadlaste, tehnoloogiajuhtide ja professorite laiaulatuslikku ja kasvavat koalitsiooni, kes on mures tehisintellekti väljasuremisohtude pärast. Vajame panuste laialdast tunnustamist, et saaksime pidada kasulikke poliitilisi arutelusid," ütles CAIS-i direktor Dan Hendrycks. Register.

CAIS ei maini oma tehisintellekti (AGI). AI riskide loend, märgime. Ja praeguse põlvkonna mudelid, nagu ChatGPT, ei kujuta inimkonnale apokalüptilist ohtu, ütles Hendrycks. Selle nädala hoiatus on selle kohta, mis võib järgmiseks tulla.

"Katastroofiliste ohtude tüübid, millele see avaldus viitab, on seotud tulevaste arenenud AI-süsteemidega," arvas Hendrycks. Ta lisas, et "apokalüptilise ohu" taseme saavutamiseks vajalikud edusammud võivad olla vaid kahe kuni kümne aasta, mitte mitme aastakümne kaugusel. "Peame nüüd valmistuma. Kuid AI-süsteemid, mis võivad põhjustada katastroofilisi tagajärgi, ei pea olema AGI-d, ”ütles ta. 

Sest inimesed on niikuinii täiesti rahulikud

Üks selline oht on relvastamine või idee, et keegi võiks muuta heatahtliku tehisintellekti väga hävitavaks, näiteks kasutades uimastite avastamise robotit keemiliste või bioloogiliste relvade väljatöötamiseks või tugevdades õppimist masinapõhises võitluses. Sellegipoolest on inimesed juba üsna võimelised tootma selliseid relvi, millega saab välja lüüa inimese, naabruskonna, linna või riigi.

Meid hoiatatakse, et tehisintellekti saab ka koolitada oma eesmärke täitma, arvestamata individuaalseid või ühiskondlikke väärtusi. See võib nõrgestada inimesi, kes loovutavad oskused ja võimed automatiseeritud masinatele, põhjustades võimsuse tasakaalustamatust tehisintellekti kontrollerite ja automatiseerimise tõttu tõrjutute vahel, või kasutada desinformatsiooni levitamiseks tahtlikult või muidu.

Jällegi, ükski sellega seotud tehisintellekt ei pea olema üldine ja pole liiga palju aega näha, et praeguse põlvkonna tehisintellekt võib areneda nii, et see kujutaks endast selliseid riske, mille pärast CAIS muretseb. Teil võib olla oma arvamus selle kohta, kui tõeliselt hävitav või võimekas tarkvara võiks või saab olema ja mida see tegelikult võib saavutada.

CAISi argumendi kohaselt on ülioluline uurida ja käsitleda AI negatiivseid mõjusid, mida juba tuntakse, ning muuta need olemasolevad mõjud ettenägelikuks. "Kuna maadleme vahetute tehisintellektiriskidega, peavad tehisintellekti tööstus ja valitsused üle kogu maailma võtma tõsiselt vastu ka riskile, et tulevased tehisintellektid võivad ohustada inimeste eksistentsi," ütles Hendrycks. ütles avalduses.

„Maailm on teinud edukat koostööd tuumasõjaga seotud riskide maandamiseks. Samasuguseid jõupingutusi on vaja tulevaste tehisintellektisüsteemidest tulenevate ohtudega tegelemiseks, ”soovitas Hendrycks koos nimekirjaga ettevõtetest, akadeemilistest ja mõtteliidritest, kes teda toetavad. 

Muski pardal pole

Teised allakirjutanud on Google DeepMindi juhtivteadlane Ian Goodfellow, filosoofid David Chalmers ja Daniel Dennett, autor ja blogija Sam Harris ning muusik/Elon Muski endine Grimes. Kui rääkida mehest endast, siis Muski allkiri puudub. 

Twitteri tegevjuht oli nende seas, kes allkirjastasid an avaliku kirja avaldas Future of Life Institute möödunud aasta märtsis, kutsudes üles a kuuekuuline paus tehisintellektisüsteemide väljaõppe kohta, mis on "võimsamad kui GPT-4". Pole üllatav, et OpenAI tegevjuhi Altmani allkiri puudus et konkreetne kiri, ilmselt seetõttu, et see kutsus otse välja tema ettevõtte. 

OpenAI on sellest ajast alates välja andnud oma hoiatused arenenud tehisintellektist tulenevate ohtude kohta ja kutsus üles looma tehisintellekti kasutamise reguleerimiseks Rahvusvahelise Aatomienergiaagentuuriga sarnase ülemaailmse valvekoera.

See hoiatus ja regulatiivne üleskutse ajalooliselt halva ajastuse korral tuli Altmani samal päeval ohustatud et tõmmata OpenAI ja sellega koos ChatGPT EL-ist üle bloki AI seadus. Tema toetatavad reeglid on üks asi, kuid Altman ütles Brüsselile, et nende idee AI piiramisest on liiga kaugele reguleeriv sild, tänan teid väga. 

ELi parlamendiliikmed vastas öeldes, et OpenAI neid ei dikteeriks ja et kui ettevõte ei suuda täita põhilisi juhtimis- ja läbipaistvusreegleid, siis "nende süsteemid ei sobi Euroopa turule," kinnitas Hollandi parlamendiliige Kim van Sparrentak. 

Oleme palunud OpenAI-lt Altmani positsiooni(de) kohta selgitusi ja värskendame seda lugu, kui vastu kuuleme. ®

Ajatempel:

Veel alates Register