Indiske statsministers rådgivere sier AI kan forårsake "masseschizofreni"

Indiske statsministers rådgivere sier AI kan forårsake "masseschizofreni"

Kilde node: 3091579

Indias økonomiske rådgivende råd til statsministeren (EACPM) har skrevet et dokument som advarer om at gjeldende globale AI-reguleringer sannsynligvis vil være ineffektive, og anbefalte å regulere teknologien med alternative taktikker – som de som brukes i finansmarkedene.

Rådet er svært bekymret for AI. Dokumentet advarer «Gjennom en kombinasjon av overvåking, overbevisende meldinger og generering av syntetiske medier, kan ondsinnet AI i økende grad kontrollere informasjonsøkosystemer og til og med fremstille tilpassede svikefulle realiteter for å tvinge menneskelig atferd, og indusere masseschizofreni.»

Organisasjonen kritiserer USAs tilnærming til kunstig intelligens som for håndløs, Storbritannias som utgjør en risiko ved å være pro-innovasjon og laissez-faire, og EUs regler for kunstig intelligens som mangelfulle på grunn av at blokkens medlemsnasjoner splitter opp og tar i bruk ulike vektlegginger og anvendelser av håndhevingstiltak.

Dokumentet argumenterer også for at Kinas tendens til å regulere med "et allmektig sentralisert byråkratisk system" er feil - som demonstrert av "den sannsynlige laboratorielekkasjeopprinnelsen til COVID-19."

Vi er gjennom glasset her, folkens.

(For ordens skyld har det amerikanske kontoret til direktøren for nasjonal etterretning fant ingen indikasjon at viruset lekket fra et kinesisk laboratorium.)

Men vi går bort.

Rådet foreslår at AI betraktes som et "desentralisert selvorganiserende system [som utvikler seg] gjennom tilbakemeldingssløyfer, faseoverganger og følsomhet for initiale forhold" og angir andre eksempler på slike systemer - som ikke-lineære enheter sett i finansmarkedene, oppførselen til maurkolonier eller trafikkmønstre.

«Tradisjonelle metoder kommer til kort på grunn av AIs ikke-lineære, uforutsigbare natur. AI-systemer er beslektet med Complex Adaptive Systems (CAS), der komponenter samhandler og utvikler seg på uforutsigbare måter. forklarte [PDF] rådet.

Rådet er ikke opptatt av å stole på «ex-ante»-tiltak, siden det er umulig å vite på forhånd hvilken risiko et AI-system vil utgjøre – dets oppførsel er et resultat av for mange faktorer.

Dokumentet foreslår derfor at India vedtar fem reguleringstiltak:

  • Innføring av rekkverk og skillevegger, som skal sikre at AI-teknologier verken overskrider deres tiltenkte funksjon eller inngriper i farlige territorier – som beslutningstaking om kjernefysisk bevæpning. Hvis de på en eller annen måte bryter rekkverket i ett system, er skilleveggene der for å sikre at det ikke sprer seg.
  • Sikre manuelle overstyringer og autorisasjonsstrupepunkter som holder mennesker i kontroll, og holder dem trygge med multi-faktor autentisering og en flerlags gjennomgangsprosess for menneskelige beslutningstakere.
  • Åpenhet og forklaring med tiltak som åpen lisensiering for kjernealgoritmer for å fremme et revisjonsvennlig miljø, regelmessige revisjoner og vurderinger og standardisert utviklingsdokumentasjon.
  • Distinkt ansvarlighet gjennom forhåndsdefinerte ansvarsprotokoller, pålagt standardisert hendelsesrapportering og etterforskningsmekanismer.
  • Vedta et spesialisert reguleringsorgansom er gitt et bredt mandat, tar på seg en tilbakemeldingsdrevet tilnærming, overvåker og sporer AI-systematferd, integrerer automatiserte varslingssystemer og etablerer et nasjonalt register.

Rådet anbefalte å se til andre CAS-systemer for å få ideer om hvordan de kan levere sine ideer – først og fremst finansmarkedene.

"Innsikt fra styrende kaotiske systemer som finansmarkeder viser gjennomførbare reguleringstilnærminger for komplekse teknologier," observerer dokumentet, og antyder at dedikerte AI-regulatorer kan være modellert på finansielle regulatorer som Indias SEBI eller USAs SEC.

Akkurat som disse organene pålegger handelsstopp når markeder er i fare, kan regulatorer ta i bruk lignende "chokepoints" der AI vil bli brakt til hæl. Obligatorisk finansiell rapportering er en god modell for den typen avsløring AI-operatører kan bli pålagt å sende inn.

Forfatternes bekymringer er drevet av en tro på at AIs økende utbredelse – kombinert med ugjennomsiktigheten av dens virkemåte – betyr at kritisk infrastruktur, forsvarsoperasjoner og mange andre felt er i fare.

Blant farene de skisserer er "runaway AI" der systemer rekursivt kan forbedre seg selv utenfor menneskelig kontroll og "feil tilpasset menneskelig velferd", og sommerfugleffekten - et scenario "der mindre endringer kan føre til betydelige, uforutsette konsekvenser."

"Derfor kan et system med ugjennomsiktig statskontroll over algoritmer, treningssett og modeller med et mål om å maksimere interesser føre til katastrofale utfall," advarte rådet.

Dokumentet bemerker at det foreslåtte regelverket kan bety at enkelte scenarier må utelukkes.

"Vi vil kanskje aldri tillate et supertilkoblet internett av alt," innrømmer rådet. Men den konkluderer med at menneskeheten kan ha mer å tjene på sterke reguleringer.

"De som lager AI-verktøy vil ikke slippe lett ut for antatte utilsiktede konsekvenser - og dermed sette inn en ex-ante 'Skin in the Game'. Mennesker vil beholde overstyrings- og autorisasjonsmakter. Regelmessige pålagte revisjoner vil måtte håndheve forklaring.» ®

Tidstempel:

Mer fra Registeret