I consiglieri del primo ministro indiano affermano che l’intelligenza artificiale può causare “schizofrenia di massa”

I consiglieri del primo ministro indiano affermano che l’intelligenza artificiale può causare “schizofrenia di massa”

Nodo di origine: 3091579

Il Consiglio consultivo economico del Primo Ministro indiano (EACPM) ha scritto un documento in cui avverte che le attuali normative globali sull'intelligenza artificiale potrebbero essere inefficaci e raccomanda di regolamentare la tecnologia con tattiche alternative, come quelle utilizzate nei mercati finanziari.

Il Consiglio è molto preoccupato per l’IA. Il suo documento avverte: “Attraverso una combinazione di sorveglianza, messaggistica persuasiva e generazione di media sintetici, l’intelligenza artificiale malevola potrebbe controllare sempre più gli ecosistemi informativi e persino fabbricare realtà ingannevoli personalizzate per costringere il comportamento umano, inducendo la schizofrenia di massa”.

L'organizzazione critica l'approccio degli Stati Uniti all'intelligenza artificiale come troppo distaccato, quello del Regno Unito perché presenta rischi essendo a favore dell'innovazione e del laissez-faire e le regole dell'UE sull'intelligenza artificiale come imperfette a causa della frammentazione dei paesi membri del blocco e dell'adozione di diverse enfasi e applicazioni di intelligenza artificiale. misure esecutive.

Il documento sostiene inoltre che la tendenza della Cina a regolamentare con “un onnipotente sistema burocratico centralizzato” è difettosa, come dimostrato dalla “probabile origine di una fuga di dati di laboratorio del COVID-19”.

Siamo attraverso lo specchio qui, gente.

(Per la cronaca, l'Ufficio statunitense del Direttore dell'intelligence nazionale ha non ho trovato alcuna indicazione che il virus è fuoriuscito da un laboratorio cinese.)

Ma stiamo divagando.

Il Consiglio suggerisce che l’intelligenza artificiale sia considerata un “sistema auto-organizzato decentralizzato [che si evolve] attraverso cicli di feedback, transizioni di fase e sensibilità alle condizioni iniziali” e postula altri esempi di tali sistemi – come le entità non lineari osservate nei mercati finanziari, il comportamento delle colonie di formiche o modelli di traffico.

“I metodi tradizionali non sono all’altezza a causa della natura non lineare e imprevedibile dell’intelligenza artificiale. I sistemi di intelligenza artificiale sono simili ai sistemi adattivi complessi (CAS), in cui i componenti interagiscono e si evolvono in modi imprevedibili”, ha spiegato [PDF] il concilio.

Il Consiglio non è propenso a fare affidamento su misure “ex-ante”, poiché è impossibile sapere in anticipo il rischio che un sistema di intelligenza artificiale presenterà: il suo comportamento è il risultato di troppi fattori.

Il documento propone quindi all’India di adottare cinque misure normative:

  • Istituzione di guardrail e divisori, che dovrebbe garantire che le tecnologie di intelligenza artificiale non superino la loro funzione prevista né invadano territori pericolosi, come il processo decisionale sugli armamenti nucleari. Se in qualche modo violano il guardrail in un sistema, le partizioni sono lì per assicurarsi che non si diffonda.
  • Garantire override manuali e colli di bottiglia di autorizzazione che mantengono gli esseri umani sotto controllo e li mantengono al sicuro con l’autenticazione a più fattori e un processo di revisione a più livelli per i decisori umani.
  • Trasparenza e spiegabilità con misure come la concessione di licenze aperte per algoritmi fondamentali per promuovere un ambiente favorevole agli audit, audit e valutazioni regolari e documentazione di sviluppo standardizzata.
  • Responsabilità distinta attraverso protocolli di responsabilità predefiniti, reporting standardizzato degli incidenti e meccanismi di indagine.
  • Istituzione di un organismo di regolamentazione specializzatoche riceve un mandato di ampio respiro, adotta un approccio basato sul feedback, monitora e traccia il comportamento dei sistemi di intelligenza artificiale, integra sistemi di allarme automatizzati e istituisce un registro nazionale.

Il Consiglio ha raccomandato di cercare idee su altri sistemi CAS su come realizzare le proprie idee, in primo luogo sui mercati finanziari.

“Gli approfondimenti provenienti dal governo di sistemi caotici come i mercati finanziari dimostrano approcci di regolamentazione fattibili per tecnologie complesse”, osserva il documento, suggerendo che i regolatori dedicati all’intelligenza artificiale potrebbero essere modellati su regolatori finanziari come la SEBI indiana o la SEC statunitense.

Proprio come questi organismi impongono la sospensione delle negoziazioni quando i mercati sono in pericolo, i regolatori potrebbero adottare simili “strozzature” in cui l’intelligenza artificiale verrebbe messa in ginocchio. La rendicontazione finanziaria obbligatoria è un buon modello per il tipo di divulgazione che gli operatori di IA potrebbero essere tenuti a presentare.

Le preoccupazioni degli autori sono alimentate dalla convinzione che la crescente ubiquità dell’intelligenza artificiale – combinata con l’opacità del suo funzionamento – significhi che le infrastrutture critiche, le operazioni di difesa e molti altri campi siano a rischio.

Tra i pericoli delineati ci sono l’“IA fuori controllo”, in cui i sistemi potrebbero auto-migliorarsi ricorsivamente oltre il controllo umano e “disallinearsi con il benessere umano”, e l’effetto farfalla – uno scenario “in cui cambiamenti minori possono portare a conseguenze significative e impreviste”.

“Pertanto, un sistema di controllo statale opaco su algoritmi, set di formazione e modelli con l’obiettivo di massimizzare gli interessi può portare a risultati catastrofici”, ha avvertito il Consiglio.

Il documento rileva che i regolamenti proposti potrebbero significare che alcuni scenari devono essere esclusi.

“Potremmo non consentire mai un’internet super connessa a tutto”, ammette il Consiglio. Ma si conclude che l’umanità potrebbe avere più da guadagnare da normative severe.

“Coloro che creano strumenti di intelligenza artificiale non si lasceranno scappare facilmente le presunte conseguenze indesiderate, inserendo così ex ante uno 'Skin in the Game'. Gli esseri umani manterranno i poteri di override e autorizzazione. Verifiche periodiche obbligatorie dovranno garantire la spiegabilità”. ®

Timestamp:

Di più da Il registro