Svetovalci indijskega premierja pravijo, da lahko umetna inteligenca povzroči "množično shizofrenijo"

Svetovalci indijskega premierja pravijo, da lahko umetna inteligenca povzroči "množično shizofrenijo"

Izvorno vozlišče: 3091579

Indijski gospodarski svetovalni svet pri predsedniku vlade (EACPM) je pripravil dokument, v katerem opozarja, da bodo trenutni globalni predpisi o umetni inteligenci verjetno neučinkoviti, in priporoča regulacijo tehnologije z alternativnimi taktikami – kot so tiste, ki se uporabljajo na finančnih trgih.

Svet je zelo zaskrbljen zaradi umetne inteligence. Njegov dokument opozarja: "S kombinacijo nadzora, prepričljivega sporočanja in ustvarjanja sintetičnih medijev lahko zlonamerna umetna inteligenca vse bolj nadzoruje informacijske ekosisteme in celo izdeluje prilagojene lažne resničnosti za izsiljevanje človeškega vedenja, kar povzroča množično shizofrenijo."

Organizacija kritizira pristop ZDA do umetne inteligence kot preveč neposreden, pristop Združenega kraljestva, ki predstavlja tveganje, ker je naklonjen inovacijam in laissez faire, in pravila EU o umetni inteligenci kot pomanjkljiva, ker se države članice bloka ločujejo in sprejemajo različne poudarke in uporabe izvršilni ukrepi.

Dokument tudi trdi, da je kitajska težnja po regulaciji z "vsemogočnim centraliziranim birokratskim sistemom" napačna - kot je razvidno iz "verjetnega izvora COVID-19 iz laboratorijskega uhajanja."

Tukaj smo skozi ogledalo, ljudje.

(Za zapisnik, ameriški urad direktorja nacionalne obveščevalne službe je ni našel nobenega znaka da je virus ušel iz kitajskega laboratorija.)

Ampak odstopimo.

Svet predlaga, da se umetna inteligenca šteje za "decentraliziran samoorganizirajoč sistem [ki se razvija] skozi povratne zanke, fazne prehode in občutljivost na začetne pogoje" in postavlja druge primere takšnih sistemov - kot so nelinearne entitete na finančnih trgih, obnašanje kolonij mravelj ali prometnih vzorcev.

»Tradicionalne metode niso uspešne zaradi nelinearne in nepredvidljive narave umetne inteligence. Sistemi AI so podobni kompleksnim prilagodljivim sistemom (CAS), kjer komponente medsebojno delujejo in se razvijajo na nepredvidljive načine,« razložiti [PDF] svet.

Svet se ne zanaša na predhodne ukrepe, saj je nemogoče vnaprej vedeti, kakšno tveganje bo predstavljal sistem umetne inteligence – njegovo vedenje je posledica preveč dejavnikov.

Dokument torej predlaga, da Indija sprejme pet regulativnih ukrepov:

  • Postavitev zaščitnih ograj in predelnih sten, ki naj zagotovi, da tehnologije umetne inteligence ne bodo presegle svoje predvidene funkcije niti ne bodo posegle v nevarna ozemlja – kot je odločanje o jedrski oborožitvi. Če nekako prebijejo to zaščitno ograjo v enem sistemu, so particije tam, da zagotovijo, da se ne razširi.
  • Zagotavljanje ročnih preglasitev in avtorizacijskih točk ki ohranjajo nadzor nad ljudmi in jih varujejo z večfaktorsko avtentikacijo in večstopenjskim postopkom pregleda za človeške odločevalce.
  • Preglednost in razložljivost z ukrepi, kot je odprto licenciranje za osnovne algoritme za spodbujanje revizijam prijaznega okolja, redne revizije in ocene ter standardizirana razvojna dokumentacija.
  • Izrazita odgovornost z vnaprej določenimi protokoli odgovornosti, obveznim standardiziranim poročanjem o incidentih in preiskovalnimi mehanizmi.
  • Ustanovitev specializiranega regulatornega organaki ima obsežna pooblastila, uporablja pristop, ki temelji na povratnih informacijah, spremlja in sledi vedenju sistema umetne inteligence, integrira avtomatizirane sisteme opozarjanja in vzpostavlja nacionalni register.

Svet je priporočil, da se za zamisli o tem, kako uresničiti svoje ideje, obrne na druge sisteme CAS – predvsem na finančne trge.

"Vpogledi pri upravljanju kaotičnih sistemov, kot so finančni trgi, kažejo izvedljive pristope regulacije za kompleksne tehnologije," ugotavlja dokument in predlaga, da bi se namenski regulatorji AI lahko zgledovali po finančnih regulatorjih, kot sta indijski SEBI ali ameriški SEC.

Tako kot ti organi ustavijo trgovanje, ko so trgi v nevarnosti, bi regulatorji lahko sprejeli podobne "mejne točke", na katerih bi bila umetna inteligenca uničena. Obvezno finančno poročanje je dober model za vrsto razkritja, ki bi ga morali predložiti upravljavci umetne inteligence.

Pomisleke avtorjev spodbuja prepričanje, da vse večja vseprisotnost umetne inteligence – skupaj z nepreglednostjo njenega delovanja – pomeni, da so kritična infrastruktura, obrambne operacije in številna druga področja ogroženi.

Med nevarnostmi, ki jih opisujejo, sta »pobegla umetna inteligenca«, kjer se lahko sistemi rekurzivno samoizboljšujejo izven človekovega nadzora in se »neusklajujejo z dobrobitjo ljudi«, in učinek metulja – scenarij, »kjer lahko manjše spremembe povzročijo pomembne, nepredvidene posledice«.

"Zato lahko sistem nepreglednega državnega nadzora nad algoritmi, učnimi nizi in modeli s ciljem povečanja interesov povzroči katastrofalne rezultate," je opozoril Svet.

Dokument ugotavlja, da lahko njegovi predlagani predpisi pomenijo, da je treba nekatere scenarije izključiti.

»Morda nikoli ne bomo dovolili super povezanega interneta vsega,« priznava Svet. Toda sklepa, da bi človeštvo lahko več pridobilo s strogimi predpisi.

»Tisti, ki ustvarjajo orodja umetne inteligence, ne bodo zlahka zapuščeni zaradi domnevnih nenamernih posledic – s čimer bodo vstavili ex-ante 'kožo v igri'. Ljudje bodo obdržali pooblastila za preglasitev in avtorizacijo. Redne pooblaščene revizije bodo morale uveljaviti razložljivost.« ®

Časovni žig:

Več od Register