Eksperter advarer om udryddelse fra kunstig intelligens, hvis der ikke sættes ind nu

Eksperter advarer om udryddelse fra kunstig intelligens, hvis der ikke sættes ind nu

Kildeknude: 2688105

Der er endnu et åbent dommebrev om AI, der går rundt. Denne gang har en lang række teknologiske ledere, ML-kører og endda nogle få berømtheder skrevet under for at opfordre verden til at tage de påståede trusler på udryddelsesniveau, som kunstig intelligens udgør, mere alvorligt. 

Mere passende en erklæring, beskeden fra Center for AI Safety (CAIS) underskrevet af enkeltpersoner som AI-pioner Geoffrey Hinton, OpenAI CEO Sam Altman, krypteringsguru Martin Hellman, Microsoft CTO Kevin Scott og andre er en enkelt deklarativ sætning forudsige apokalypse, hvis den ikke bliver overholdt:

"At mindske risikoen for udryddelse fra AI bør være en global prioritet sammen med andre samfundsmæssige risici såsom pandemier og atomkrig." 

Hvorfor så kort? Målet var "at demonstrere den brede og voksende koalition af AI-forskere, teknologiske ledere og professorer, der er bekymrede over risici for AI-udryddelse. Vi har brug for udbredt anerkendelse af indsatsen, så vi kan have nyttige politiske diskussioner,” sagde CAIS-direktør Dan Hendrycks. Registret.

CAIS nævner ikke kunstig generel intelligens (AGI) i sin liste over AI-risici, bemærker vi. Og nuværende generations modeller, såsom ChatGPT, er ikke en apokalyptisk trussel mod menneskeheden, fortalte Hendrycks os. Advarslen i denne uge handler om, hvad der kan komme næste gang.

"De typer af katastrofale trusler, denne udtalelse refererer til, er forbundet med fremtidige avancerede AI-systemer," mente Hendrycks. Han tilføjede, at nødvendige fremskridt for at nå niveauet af "apokalyptisk trussel" kan være så lidt som to til 10 år væk, ikke flere årtier. "Vi skal forberede os nu. AI-systemer, der kan forårsage katastrofale udfald, behøver dog ikke at være AGI'er," sagde han. 

Fordi mennesker er fuldstændig fredelige alligevel

En sådan trussel er våbendannelse, eller ideen om, at nogen kunne genbruge velvillig AI til at være yderst destruktiv, såsom at bruge en lægemiddelopdagelsesbot til at udvikle kemiske eller biologiske våben eller bruge forstærkningslæring til maskinbaseret kamp. Når det er sagt, er mennesker allerede ganske i stand til at fremstille den slags våben, som kan udrydde en person, et kvarter, en by eller et land.

AI kunne også trænes til at forfølge sine mål uden hensyntagen til individuelle eller samfundsmæssige værdier, er vi advaret. Det kan "svække" mennesker, der ender med at afgive færdigheder og evner til automatiserede maskiner, hvilket forårsager en magtubalance mellem AI's controllere og dem, der er fortrængt af automatisering, eller blive brugt til at sprede desinformation, med vilje eller Ellers.

Igen, ingen af ​​de AI, der er involveret i det, behøver at være generel, og det er ikke for meget at se potentialet for, at den nuværende generations AI kan udvikle sig til at udgøre den slags risici, CAIS er bekymret for. Du har måske dine egne meninger om, hvor virkelig destruktiv eller dygtig softwaren kunne eller vil være, og hvad den rent faktisk kunne opnå.

Det er afgørende, lyder CAIS' argument, at undersøge og adressere de negative virkninger af AI, som allerede mærkes, og at vende disse eksisterende påvirkninger til fremsyn. "Når vi kæmper med umiddelbare AI-risici ... skal AI-industrien og regeringer rundt om i verden også seriøst konfrontere risikoen for, at fremtidige AI'er kan udgøre en trussel mod den menneskelige eksistens," Hendrycks sagde i en erklæring.

"Verden har med succes samarbejdet for at mindske risici i forbindelse med atomkrig. Det samme niveau af indsats er nødvendigt for at håndtere de farer, som fremtidige AI-systemer udgør,” opfordrede Hendrycks med en liste over virksomhedsledere, akademiske ledere og tankeledere, der bakker ham op. 

Musk er ikke om bord

Andre underskrivere omfatter Google DeepMind-hovedforskeren Ian Goodfellow, filosofferne David Chalmers og Daniel Dennett, forfatteren og bloggeren Sam Harris og musikeren/Elon Musks eks, Grimes. Apropos manden selv, så mangler Musks underskrift. 

Twitter-direktøren var blandt dem, der underskrev en åbent brev udgivet af Future of Life Institute i marts sidste år og opfordrede til en seks måneders pause om træning af AI-systemer "mere kraftfulde end GPT-4." Ikke overraskende var OpenAI CEO Altmans underskrift fraværende fra at bestemt brev, tilsyneladende fordi det kaldte hans firma ud direkte. 

OpenAI har siden udgivet sine egne advarsler om truslerne fra avanceret kunstig intelligens og opfordrede til etablering af en global vagthund beslægtet med Det Internationale Atomenergiagentur til at regulere brugen af ​​kunstig intelligens.

Denne advarsel og regulatoriske opfordring, i et tilfælde af historisk dårlig timing, kom samme dag som Altman truede at trække OpenAI, og ChatGPT med det, fra EU over blokkens AI-loven. Reglerne, han støtter, er én ting, men Altman fortalte Bruxelles, at deres idé om AI-begrænsning var en reguleringsbro for langt, mange tak. 

EU-parlamentarikere svarede ved at sige, at de ikke ville blive dikteret af OpenAI, og at hvis virksomheden ikke kan overholde grundlæggende styrings- og gennemsigtighedsregler, "er deres systemer ikke egnede til det europæiske marked," hævdede den hollandske MEP Kim van Sparrentak. 

Vi har bedt OpenAI om en afklaring af Altmans holdning(er) og vil opdatere denne historie, hvis vi hører tilbage. ®

Tidsstempel:

Mere fra Registret