Indiska premiärministerns rådgivare säger att AI kan orsaka "massschizofreni"

Indiska premiärministerns rådgivare säger att AI kan orsaka "massschizofreni"

Källnod: 3091579

Indiens ekonomiska rådgivande råd till premiärministern (EACPM) har skrivit ett dokument som varnar för att nuvarande globala AI-regler sannolikt kommer att vara ineffektiva, och rekommenderade att reglera tekniken med alternativa taktiker – som de som används på finansmarknaderna.

Rådet är mycket oroligt för AI. Dess dokument varnar "Genom en kombination av övervakning, övertygande meddelanden och generering av syntetiska medier kan illvillig AI i ökande grad kontrollera informationsekosystem och till och med tillverka skräddarsydda bedrägliga verkligheter för att tvinga fram mänskligt beteende, vilket inducerar massschizofreni."

Organisationen kritiserar USA:s förhållningssätt till AI som alltför praktiskt taget, Storbritanniens som utgör en risk genom att vara pro-innovation och laissez-faire, och EU:s AI-regler som bristfälliga på grund av att blockets medlemsländer splittras och antar olika inriktningar och tillämpningar av verkställighetsåtgärder.

Dokumentet hävdar också att Kinas tendens att reglera med "ett allsmäktigt centraliserat byråkratiskt system" är bristfälligt - vilket framgår av "det troliga ursprunget för labläckage till COVID-19."

Vi är genom glasögonen här, människor.

(För tydlighetens skull har US Office of the Director of National Intelligence hittade ingen indikation att viruset läckte från ett kinesiskt labb.)

Men vi avviker.

Rådet föreslår att AI ska betraktas som ett "decentraliserat självorganiserande system [som utvecklas] genom återkopplingsslingor, fasövergångar och känslighet för initiala förhållanden" och ger andra exempel på sådana system - som olinjära enheter som ses på finansmarknaderna, myrkoloniernas beteende eller trafikmönster.

”Traditionella metoder kommer till kort på grund av AI:s icke-linjära, oförutsägbara natur. AI-system är besläktade med Complex Adaptive Systems (CAS), där komponenter interagerar och utvecklas på oförutsägbara sätt." förklarade [PDF] rådet.

Rådet är inte förtjust i att förlita sig på "ex ante"-åtgärder, eftersom det är omöjligt att i förväg veta vilken risk ett AI-system kommer att innebära – dess beteende är ett resultat av för många faktorer.

Dokumentet föreslår därför att Indien antar fem regleringsåtgärder:

  • Inrättande av skyddsräcken och skiljeväggar, vilket bör säkerställa att AI-teknik varken överskrider sin avsedda funktion eller inkräktar på farliga territorier – som beslutsfattande om kärnvapen. Om de på något sätt bryter mot det skyddsräcket i ett system, är skiljeväggarna där för att se till att det inte sprider sig.
  • Säkerställer manuella åsidosättanden och auktoriserings-chokepoints som håller människor i kontroll och håller dem säkra med multifaktorautentisering och en granskningsprocess i flera nivåer för mänskliga beslutsfattare.
  • Transparens och förklarabarhet med åtgärder som öppen licensiering för kärnalgoritmer för att främja en revisionsvänlig miljö, regelbundna revisioner och utvärderingar och standardiserad utvecklingsdokumentation.
  • Distinkt ansvarighet genom fördefinierade ansvarsprotokoll, mandat standardiserad incidentrapportering och utredningsmekanismer.
  • Anta ett specialiserat tillsynsorgansom ges ett brett mandat, antar ett återkopplingsdrivet tillvägagångssätt, övervakar och spårar AI-systembeteende, integrerar automatiserade varningssystem och upprättar ett nationellt register.

Rådet rekommenderade att man tittar på andra CAS-system för idéer om hur man kan leverera sina idéer – i första hand finansmarknaderna.

"Insikter från styrande kaotiska system som finansmarknader visar genomförbara regleringsmetoder för komplexa tekniker," konstaterar dokumentet, vilket tyder på att dedikerade AI-regulatorer kan utformas efter finansiella tillsynsmyndigheter som Indiens SEBI eller USA:s SEC.

Precis som dessa organ inför handelsstopp när marknader är i fara, kan tillsynsmyndigheter anta liknande "chokepoints" vid vilka AI skulle komma i strid. Obligatorisk finansiell rapportering är en bra modell för den typ av information som AI-operatörer kan behöva lämna.

Författarnas oro drivs av en övertygelse om att AI:s ökande spridning – i kombination med opaciteten i dess funktioner – innebär att kritisk infrastruktur, försvarsoperationer och många andra områden är i fara.

Bland farorna de beskriver är "runaway AI" där system rekursivt kan förbättra sig själv bortom mänsklig kontroll och "felpassa sig med mänskligt välbefinnande" och fjärilseffekten - ett scenario "där mindre förändringar kan leda till betydande, oförutsedda konsekvenser."

"Därför kan ett system med ogenomskinlig statlig kontroll över algoritmer, träningsuppsättningar och modeller med ett mål att maximera intressen leda till katastrofala resultat," varnade rådet.

Dokumentet noterar att dess föreslagna regler kan innebära att vissa scenarier måste uteslutas.

"Vi kanske aldrig tillåter ett superuppkopplat internet av allt", medger rådet. Men den drar slutsatsen att mänskligheten kan ha mer att vinna på starka regleringar.

"De som skapar AI-verktyg kommer inte att släppas lätt för förmodade oavsiktliga konsekvenser - och därigenom infoga ett ex-ante "Skin in the Game". Människor kommer att behålla åsidosättande och auktorisationsbefogenheter. Regelbundna bemyndigade revisioner kommer att behöva genomdriva förklaringen." ®

Tidsstämpel:

Mer från Registret