OpenAI efterlyser en global byrå för att reglera superintelligens

OpenAI efterlyser en global byrå för att reglera superintelligens

Källnod: 2674707

En internationell byrå bör ha ansvaret för att inspektera och granska artificiell allmän intelligens för att säkerställa att tekniken är säker för mänskligheten, enligt toppchefer på GPT-4-tillverkaren OpenAI.

VD Sam Altman och medgrundarna Greg Brockman och Ilya Sutskever sa att det är "tänkbart" att AI kommer att få extraordinära förmågor som överträffar människor under det kommande decenniet.

"När det gäller både potentiella uppsidor och nackdelar kommer superintelligens att vara mer kraftfull än andra tekniker som mänskligheten har haft att kämpa med tidigare. Vi kan ha en dramatiskt mer välmående framtid; men vi måste hantera risker för att komma dit”, trion skrev på tisdag.

Kostnaderna för att bygga så kraftfull teknik minskar bara när fler arbetar för att utveckla den, hävdade de. För att kontrollera framstegen bör utvecklingen övervakas av en internationell organisation som International Atomic Energy Agency (IAEA).

IAEA bildades 1957 under en tid då regeringar fruktade att kärnvapen skulle utvecklas under det kalla kriget. Byrån hjälper till att reglera kärnkraft och sätter säkerhetsåtgärder för att se till att kärnenergi inte används för militära ändamål.

"Vi kommer sannolikt att så småningom behöva något som ett IAEA för superintelligensinsatser; alla ansträngningar över en viss förmåga (eller resurser som beräkning) kommer att behöva underkastas en internationell myndighet som kan inspektera system, kräva revisioner, testa för överensstämmelse med säkerhetsstandarder, lägga begränsningar på utbyggnadsgrader och säkerhetsnivåer, etc. " sa de.

En sådan grupp skulle ha ansvaret för att spåra dator- och energianvändning, viktiga resurser som behövs för att träna och köra stora och kraftfulla modeller.

"Vi skulle kollektivt kunna komma överens om att tillväxttakten i AI-kapacitet vid gränsen är begränsad till en viss takt per år," föreslog OpenAI:s toppledare. Företag måste frivilligt gå med på inspektioner, och byrån bör fokusera på att "minska existentiell risk", inte regleringsfrågor som definieras och fastställs av ett lands individuella lagar.

Förra veckan lade Altman fram idén att företag skulle få en licens för att bygga modeller med avancerad kapacitet över en specifik tröskel i en senat hörsel. Hans förslag kritiserades senare eftersom det orättvist kunde påverka AI-system byggda av mindre företag eller öppen källkod som är mindre benägna att ha resurserna för att uppfylla de juridiska kraven.

"Vi tycker att det är viktigt att tillåta företag och projekt med öppen källkod att utveckla modeller under en betydande kapacitetströskel, utan den typ av reglering som vi beskriver här (inklusive betungande mekanismer som licenser eller revisioner)", sa de.

Elon Musk var i slutet av mars en av 1,000 4 undertecknare av ett öppet brev som krävde en sex månaders paus i att utveckla och träna AI som är kraftfullare än GPTXNUMX på grund av de potentiella riskerna för mänskligheten, något som Altman bekräftade i mitten av april gjorde det.

"Kraftfulla AI-system bör utvecklas först när vi är övertygade om att deras effekter kommer att vara positiva och att deras risker kommer att vara hanterbara", stod det i brevet.

Alphabet och Googles vd Sundar Pichai skrev ett inlägg i Financial Times i helgen, säger: "Jag tror fortfarande att AI är för viktigt för att inte reglera, och för viktigt för att inte reglera väl". ®

Tidsstämpel:

Mer från Registret