Experter varnar för utrotning från AI om åtgärder inte vidtas nu

Experter varnar för utrotning från AI om åtgärder inte vidtas nu

Källnod: 2688105

Det finns ytterligare ett öppet brev om att AI går runt. Den här gången har ett brett spektrum av tekniska ledare, ML-lampor och till och med ett fåtal kändisar skrivit på för att uppmana världen att ta de påstådda hoten på utrotningsnivå som utgörs av artificiell intelligens på större allvar. 

Mer passande ett uttalande, meddelandet från Center for AI Safety (CAIS) undertecknat av individer som AI-pionjären Geoffrey Hinton, OpenAI CEO Sam Altman, krypteringsgurun Martin Hellman, Microsoft CTO Kevin Scott och andra är en enda deklarativ mening förutsäga apokalyps om den inte hörs:

"Att mildra risken för utrotning från AI bör vara en global prioritet vid sidan av andra samhällsskada risker som pandemier och kärnvapenkrig." 

Varför så kort? Målet var "att visa den breda och växande koalitionen av AI-forskare, tekniska ledare och professorer som är oroade över riskerna för AI-utrotning. Vi behöver ett brett erkännande av insatserna så att vi kan ha användbara politiska diskussioner, säger CAIS-chefen Dan Hendrycks Registret.

CAIS nämner inget om artificiell allmän intelligens (AGI) i sin lista över AI-risker, vi noterar. Och nuvarande generations modeller, som ChatGPT, är inte ett apokalyptiskt hot mot mänskligheten, sa Hendrycks till oss. Varningen den här veckan handlar om vad som kan komma härnäst.

"De typer av katastrofala hot som detta uttalande hänvisar till är förknippade med framtida avancerade AI-system," sa Hendrycks. Han tillade att nödvändiga framsteg som behövs för att nå nivån av "apokalyptiska hot" kan vara så lite som två till 10 år bort, inte flera decennier. "Vi måste förbereda oss nu. Men AI-system som kan orsaka katastrofala utfall behöver inte vara AGI, säger han. 

Eftersom människor är helt fridfulla ändå

En sådan hot är vapenisering, eller tanken att någon skulle kunna återanvända välvillig AI för att vara mycket destruktiv, som att använda en läkemedelsupptäckarbot för att utveckla kemiska eller biologiska vapen, eller använda förstärkningsinlärning för maskinbaserad strid. Som sagt, människor är redan ganska kapabla att tillverka den typen av vapen, som kan ta ut en person, stadsdel, stad eller land.

AI kan också tränas för att uppnå sina mål utan hänsyn till individuella eller samhälleliga värderingar, varnas vi. Det kan "försvaga" människor som slutar med att överlåta färdigheter och förmågor till automatiserade maskiner, vilket kan orsaka en maktobalans mellan AI:s kontroller och de som förskjuts av automatisering, eller användas för att sprida desinformation, avsiktligt eller annat.

Återigen, ingen av de AI som är inblandad i det behöver vara generell, och det är inte för mycket av en sträcka att se potentialen för nuvarande generationens AI att utvecklas för att utgöra de typer av risker som CAIS är orolig för. Du kanske har dina egna åsikter om hur verkligt destruktiv eller kapabel programvaran kan eller kommer att vara, och vad den faktiskt skulle kunna åstadkomma.

Det är avgörande, säger CAIS argument, att undersöka och ta itu med de negativa effekterna av AI som redan märks, och att omvandla dessa befintliga effekter till framsynthet. "När vi brottas med omedelbara AI-risker ... måste AI-industrin och regeringar runt om i världen också på allvar konfrontera risken att framtida AI kan utgöra ett hot mot mänsklig existens," Hendrycks sade i ett uttalande.

"Världen har framgångsrikt samarbetat för att mildra risker relaterade till kärnvapenkrig. Samma nivå av ansträngning behövs för att ta itu med farorna som framtida AI-system utgör”, uppmanade Hendrycks, med en lista över företags-, akademiska och tankeledare som backar upp honom. 

Musk är inte ombord

Andra undertecknare är Google DeepMinds huvudforskare Ian Goodfellow, filosoferna David Chalmers och Daniel Dennett, författaren och bloggaren Sam Harris och musiker/Elon Musks ex, Grimes. På tal om mannen själv saknas Musks signatur. 

Twitters vd var bland dem som undertecknat en öppet brev publicerad av Future of Life Institute i mars förra året och uppmanade en sex månaders paus om utbildning av AI-system "kraftfullare än GPT-4." Föga överraskande saknades OpenAI-vd:n Altmans signatur från den där särskilt brev, skenbart för att det kallade ut hans företag direkt. 

OpenAI har sedan dess utfärdats sina egna varningar om hoten från avancerad AI och efterlyste inrättandet av en global vakthund besläktad med International Atomic Energy Agency för att reglera användningen av AI.

Den varningen och regulatoriska uppmaningen, i ett fall av historiskt dålig timing, kom samma dag som Altman hotade att dra OpenAI, och ChatGPT med det, från EU över blockets AI-lagen. Reglerna han stöder är en sak, men Altman sa till Bryssel att deras idé om AI-begränsning var en reglerande bro för långt, tack så mycket. 

EU-parlamentariker svarade genom att säga att de inte skulle dikteras av OpenAI, och att om företaget inte kan följa grundläggande regler för styrning och öppenhet, "passar deras system inte för den europeiska marknaden", hävdade den holländska ledamoten Kim van Sparrentak. 

Vi har bett OpenAI om ett förtydligande av Altmans position(er) och kommer att uppdatera den här historien om vi hör tillbaka. ®

Tidsstämpel:

Mer från Registret