Googles Bard Cannibalized ChatGPT-data hävdar utgående whistleblower

Googles Bard Cannibalized ChatGPT-data hävdar utgående whistleblower

Källnod: 2564129

Artificiell allmän intelligens (AGI)-forskaren Eliezer Yudkowsky säger att AI-innovation är mycket värre än kärnvapenbomben och kan leda till döden för alla på jorden. Men det kanske inte är helt korrekt, enligt några av hans kamrater, som anser att riskerna är överskattade.

Yudkowsky talade i kölvattnet av en öppet brev undertecknades nyligen av flera armaturer, inklusive Apples medgrundare Steve Wozniak, miljardären Elon Musk, Gary Marcus och andra, som kräver ett sex månaders moratorium för storspråkig AI-utbildning i världen.

"Om någon bygger en för kraftfull AI, under nuvarande förhållanden, förväntar jag mig att varje enskild medlem av den mänskliga arten och allt biologiskt liv på jorden dör kort därefter," varnade han i en ny artikel publicerade av Time Magazine.

Läs också: Problem i ChatGPT Paradise? AI-Run-starten klarar inte finansiella mål

Stänger av AI

Yudkowsky är en amerikansk datavetare mest känd för att popularisera idén om Vänlig AI, en term som specifikt hänvisar till AI: er som ger "bra, fördelaktiga resultat snarare än skadliga." Han tillbringade 20 år med att undersöka AGI – i princip staten där AI kunde resonera som människor – och anses vara en pionjär inom området.

I sin artikel hävdar Yudkowsky att riskerna med artificiell intelligens inte kan hanteras enbart genom reglering. Han menar att utvecklingen av AI utgör ett existentiellt hot mot mänskligheten och att det enda sättet att hantera hotet är att stänga ner det hela helt.

"Stäng av alla stora GPU-kluster (de stora datorfarmarna där de mest kraftfulla AI:erna förfinas). Stäng av alla stora träningspass”, föreslog han.

"Sätt ett tak på hur mycket datorkraft någon får använda för att träna ett AI-system..." Ingen regering eller militär i världen bör undantas från att följa dessa krävande standarder, säger Machine Intelligence Research Institutes medgrundare.

En av kärnfrågorna som Yudkowsky tog upp är vad han beskrev som "anpassningsproblemet". I huvudsak hänvisar problemet till svårigheten att se till att ett AI-systems mål och mål är i linje med de mänskliga skaparnas.

Kritiker säger att faran är att ett AI-system kan utveckla sina egna mål och mål som står i konflikt med dess skapares, vilket leder till katastrofala resultat. Att utveckla AI utan att lösa anpassningsproblemet liknar att bygga en skyskrapa på skakig grund, sa han.

Kärnkraftsdebatt

Yudkowsky fruktar de oavsiktliga farorna med att snabbt skala utvecklingen av supersmarta teknologier utan ordentliga säkerhetsåtgärder. Han föreslår skapandet av specialiserade organisationer och institutioner dedikerade till att ta itu med dessa säkerhetsproblem.

Emellertid den beslutsteoretiker's argument är inte nytt. Många experter har varnat för farorna med AI i flera år. År 2018, a rapport av RAND Corporation varnade för att utvecklingen av AI kan öka risken för kärnvapenkrig.

Rapporten som sa att integrationen av AI, maskininlärning och big-data-analys dramatiskt skulle kunna förbättra militärernas förmåga att lokalisera, spåra, rikta in sig på och förstöra en rivals kärnvapenavskräckande styrkor.

Andra har också vadat in i debatten. För tidigare Google-produktledare Bilawal Sidhu kan AI-debatten antingen behandlas som kärnkraft eller lämnas öppen. Han säger att en AI med öppen källkod skulle tillåta bra aktörer att polisa de dåliga, vilket minimerar skadan som tekniken skulle göra.

I en serie tweets, Sidhu likställde AI-teknikens styrka med en förbättrad kärnkraft och tillade att data var den nya råoljan i en digitaliserad värld.

"Big data-eran digitaliserade allt och skapade både öppna och slutna skattkammare. Data är den nya oljan, och med AI är det lättare än någonsin att utvinna denna råa resurs”, skrev han.

"Till skillnad från tidigare, där regeringen brukade uteslutande utöva makt, innehas detta inflytande också av individer. Att använda denna makt är inte begränsat till stora teknikjättar eller nationalstater. Vem som helst kan använda den på gott eller ont. Människor har redan visat vilda förmågor.”

Fler AI-funktioner

Nu kan till och med geolokalisering, tidigare ett förbehåll av sofistikerade statliga spionbyråer, göras av enskilda. Sidhu citerade en AI-artist som geolokaliserade toppinfluencers med hjälp av Instagram och allmänt tillgängliga kameraflöden, som ett exempel.

Det som är känt som "livsmönsteranalys" har traditionellt förvisats till underrättelsesamfundet, men kan göras av individer. När en mycket mer skicklig stor språkmodell som GPT-4, den senaste versionen av GPT-familjen, läggs till mixen, blir potentialen för sådana individer skrämmande, säger han.

På grund av denna skrämmande framtid säger Sidhu att det inte är konstigt OpenAI, företaget som skapade GPT-tekniken, har varit selektivt när det gäller att öppna upp multimodalitet. Kombinerat med "detektions- och spårningsalgoritmer" på media och neurallänksbaserad "resoneringsförmåga" GPT-4 klassmodeller i att analysera sociala flöden, föds en kraftfull storebror.

Han efterlyste större reglering av typen av modeller som bildgenerering, och insisterade på att detta har mycket mindre nackdelar än generella modeller som GPT-4.

”Men det är inte precis regnbågar och solsken heller. VFX och photoshop har alltid varit en grej, men bildmodeller möjliggör desinformation i en outgrundlig skala”, twittrade han.

Sidhu citerade hur hans tydligt märkta "VFX-videor" lurade miljoner. Han sa att det var ofattbart vad sådan teknik skulle göra i händerna på vad han kallade "dåliga skådespelare".

I en tidigare intervjun med Newsweek hävdade USA:s förre utrikesminister Henry Kissinger att AI är "lika följdriktigt" men "mindre förutsägbart" än kärnvapen. Kissinger menar att riskerna med AI kan hanteras genom internationellt samarbete och reglering.

Tidsstämpel:

Mer från MetaNews