Eksperter advarer mot utryddelse fra AI hvis tiltak ikke iverksettes nå

Eksperter advarer mot utryddelse fra AI hvis tiltak ikke iverksettes nå

Kilde node: 2688105

Det er et annet åpent dommedagsbrev om AI som går rundt. Denne gangen har et bredt utvalg av teknologiledere, ML-armaturer og til og med noen få kjendiser signert for å oppfordre verden til å ta de påståtte truslene på utryddelsesnivået som utgjøres av kunstig intelligens, mer alvorlig. 

Mer treffende en uttalelse, meldingen fra Center for AI Safety (CAIS) signert av enkeltpersoner som AI-pioner Geoffrey Hinton, OpenAI CEO Sam Altman, krypteringsguru Martin Hellman, Microsoft CTO Kevin Scott og andre er en enkelt deklarativ setning forutsi apokalypse hvis den ikke blir fulgt:

"Å redusere risikoen for utryddelse fra AI bør være en global prioritet sammen med andre samfunnsmessige risikoer som pandemier og atomkrig." 

Hvorfor så kort? Målet var «å demonstrere den brede og voksende koalisjonen av AI-forskere, tekniske ledere og professorer som er bekymret for risikoen for utryddelse av AI. Vi trenger bred anerkjennelse av innsatsen slik at vi kan ha nyttige politiske diskusjoner, sa CAIS-direktør Dan Hendrycks Registeret.

CAIS nevner ikke kunstig generell intelligens (AGI) i sin liste over AI-risikoer, merker vi. Og nåværende generasjons modeller, som ChatGPT, er ikke en apokalyptisk trussel mot menneskeheten, fortalte Hendrycks oss. Advarselen denne uken handler om hva som kan komme videre.

"Typene katastrofale trusler denne uttalelsen refererer til er assosiert med fremtidige avanserte AI-systemer," sa Hendrycks. Han la til at nødvendige fremskritt for å nå nivået av "apokalyptisk trussel" kan være så lite som to til ti år unna, ikke flere tiår. – Vi må forberede oss nå. Imidlertid trenger AI-systemer som kan forårsake katastrofale utfall ikke å være AGI-er," sa han. 

Fordi mennesker er helt fredelige uansett

En slik trussel er bevæpning, eller ideen om at noen kan gjenbruke velvillig kunstig intelligens til å være svært destruktiv, for eksempel å bruke en robot for oppdagelse av medikamenter for å utvikle kjemiske eller biologiske våpen, eller bruke forsterkningslæring for maskinbasert kamp. Når det er sagt, er mennesker allerede ganske i stand til å produsere den slags våpen, som kan ta ut en person, nabolag, by eller land.

AI kan også trenes til å forfølge sine mål uten hensyn til individuelle eller samfunnsmessige verdier, er vi advart. Det kan "svake" mennesker som ender opp med å gi ferdigheter og evner til automatiserte maskiner, forårsake en maktubalanse mellom AIs kontrollere og de som er fortrengt av automatisering, eller bli brukt til å spre desinformasjon, med vilje eller ellers.

Igjen, ingen av AI-en som er involvert i dette trenger å være generell, og det er ikke for mye å se på potensialet for nåværende generasjons AI til å utvikle seg til å utgjøre den typen risiko som CAIS er bekymret for. Du kan ha dine egne meninger om hvor virkelig destruktiv eller kapabel programvaren kan eller vil være, og hva den faktisk kan oppnå.

Det er avgjørende, sier CAIS' argument, å undersøke og adressere de negative virkningene av AI som allerede merkes, og å gjøre de eksisterende virkningene om til framsyn. "Når vi kjemper med umiddelbare AI-risikoer ... må AI-industrien og myndigheter rundt om i verden også seriøst konfrontere risikoen for at fremtidige AI-er kan utgjøre en trussel mot menneskelig eksistens," Hendrycks sa i en uttalelse.

"Verden har samarbeidet med suksess for å redusere risiko knyttet til atomkrig. Det samme nivået av innsats er nødvendig for å håndtere farene som fremtidige AI-systemer utgjør,» oppfordret Hendrycks, med en liste over bedrifts-, akademiske og tankeledere som støtter ham. 

Musk er ikke om bord

Andre underskrivere inkluderer Google DeepMind-hovedforsker Ian Goodfellow, filosofene David Chalmers og Daniel Dennett, forfatter og blogger Sam Harris og musiker/Elon Musks eks, Grimes. Apropos mannen selv, så mangler Musks signatur. 

Twitter-sjefen var blant dem som signerte en åpent brev utgitt av Future of Life Institute i mars i fjor og oppfordret til en seks måneders pause om opplæring av AI-systemer "kraftigere enn GPT-4." Ikke overraskende var OpenAI-sjef Altmans signatur fraværende fra Det bestemt brev, tilsynelatende fordi det kalte selskapet hans ut direkte. 

OpenAI har siden gitt ut sine egne advarsler om truslene fra avansert kunstig intelligens og ba om etablering av en global vakthund i likhet med Det internasjonale atomenergibyrået for å regulere bruken av kunstig intelligens.

Den advarselen og forskriftsoppfordringen, i et tilfelle med historisk dårlig timing, kom samme dag som Altman truet å trekke OpenAI, og ChatGPT med det, fra EU over blokkens AI-loven. Reglene han støtter er én ting, men Altman sa til Brussel at ideen deres om AI-begrensning var en regulatorisk bro for langt, tusen takk. 

EU-parlamentarikere svarte ved å si at de ikke ville bli diktert av OpenAI, og at hvis selskapet ikke kan overholde grunnleggende styrings- og åpenhetsregler, "deres systemer er ikke egnet for det europeiske markedet," hevdet den nederlandske MEP Kim van Sparrentak. 

Vi har bedt OpenAI om en avklaring på Altmans posisjon(er) og vil oppdatere denne historien hvis vi hører tilbake. ®

Tidstempel:

Mer fra Registeret