Gli esperti avvertono dell'estinzione dell'IA se non si interviene ora

Gli esperti avvertono dell'estinzione dell'IA se non si interviene ora

Nodo di origine: 2688105

C'è un'altra lettera aperta di condanna sull'intelligenza artificiale che fa il giro. Questa volta un'ampia fascia di leader tecnologici, luminari del machine learning e persino alcune celebrità hanno aderito per sollecitare il mondo a prendere più seriamente le presunte minacce a livello di estinzione poste dall'intelligenza artificiale. 

Più appropriatamente una dichiarazione, il messaggio del Center for AI Safety (CAIS) firmato da individui come il pioniere dell'IA Geoffrey Hinton, il CEO di OpenAI Sam Altman, il guru della crittografia Martin Hellman, il CTO di Microsoft Kevin Scott e altri è a singola frase dichiarativa predire l'apocalisse se non viene ascoltato:

"Mitigare il rischio di estinzione dell'IA dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare". 

Perché così breve? L'obiettivo era “dimostrare l'ampia e crescente coalizione di scienziati, leader tecnologici e professori di intelligenza artificiale che sono preoccupati per i rischi di estinzione dell'IA. Abbiamo bisogno di un ampio riconoscimento della posta in gioco in modo da poter avere utili discussioni politiche ", ha detto il direttore del CAIS Dan Hendrycks Il registro.

CAIS non fa menzione di intelligenza generale artificiale (AGI) nella sua elenco dei rischi di IA, noi notiamo. E i modelli della generazione attuale, come ChatGPT, non sono una minaccia apocalittica per l'umanità, ci ha detto Hendrycks. L'avvertimento di questa settimana riguarda ciò che potrebbe accadere dopo.

"I tipi di minacce catastrofiche a cui si riferisce questa affermazione sono associati ai futuri sistemi di intelligenza artificiale avanzati", ha affermato Hendrycks. Ha aggiunto che i necessari progressi necessari per raggiungere il livello di "minaccia apocalittica" potrebbero essere distanti solo da due a dieci anni, non diversi decenni. “Dobbiamo prepararci ora. Tuttavia, i sistemi di intelligenza artificiale che potrebbero causare esiti catastrofici non devono essere AGI", ha affermato. 

Perché gli umani sono comunque perfettamente pacifici

Uno di questi minaccia è l'armamento, o l'idea che qualcuno possa riutilizzare l'IA benevola per essere altamente distruttiva, come usare un robot per la scoperta di droghe per sviluppare armi chimiche o biologiche o usare l'apprendimento per rinforzo per il combattimento basato su macchine. Detto questo, gli umani sono già perfettamente in grado di fabbricare quel tipo di armi, che possono eliminare una persona, un quartiere, una città o un paese.

L'intelligenza artificiale potrebbe anche essere addestrata a perseguire i propri obiettivi senza riguardo per i valori individuali o sociali, siamo avvertiti. Potrebbe "indebolire" gli esseri umani che finiscono per cedere competenze e abilità a macchine automatizzate, causando uno squilibrio di potere tra i controllori dell'IA e quelli sostituiti dall'automazione, o essere utilizzato per diffondere disinformazione, intenzionalmente o altrimenti.

Ancora una volta, nessuna delle IA coinvolte in questo deve essere generale, e non è troppo lungo vedere il potenziale dell'IA di generazione attuale di evolversi per porre il tipo di rischi di cui CAIS è preoccupato. Potresti avere le tue opinioni su quanto veramente distruttivo o capace il software potrebbe o sarà e cosa potrebbe effettivamente ottenere.

È fondamentale, sostiene l'argomentazione di CAIS, esaminare e affrontare gli impatti negativi dell'IA che si stanno già avvertendo e trasformare tali impatti esistenti in lungimiranza. "Mentre siamo alle prese con i rischi immediati dell'IA... l'industria dell'IA e i governi di tutto il mondo devono anche affrontare seriamente il rischio che le future IA possano rappresentare una minaccia per l'esistenza umana", Hendrycks disse in un comunicato.

“Il mondo ha cooperato con successo per mitigare i rischi legati alla guerra nucleare. Lo stesso livello di impegno è necessario per affrontare i pericoli posti dai futuri sistemi di intelligenza artificiale", ha esortato Hendrycks, con un elenco di leader aziendali, accademici e di pensiero che lo sostengono. 

Musk non è d'accordo

Altri firmatari includono lo scienziato principale di Google DeepMind Ian Goodfellow, i filosofi David Chalmers e Daniel Dennett, l'autore e blogger Sam Harris e il musicista/ex di Elon Musk, Grimes. Parlando dell'uomo stesso, la firma di Musk è assente. 

L'amministratore delegato di Twitter Prima tra coloro che hanno firmato un lettera aperta pubblicato dal Future of Life Institute lo scorso marzo sollecitando a pausa di sei mesi sull'addestramento di sistemi di intelligenza artificiale "più potenti di GPT-4". Non sorprende che la firma del CEO di OpenAI Altman fosse assente che lettera particolare, apparentemente perché chiamava direttamente la sua azienda. 

Da allora OpenAI ha emesso i propri avvertimenti sulle minacce poste dall'IA avanzata e ha chiesto l'istituzione di un watchdog globale simile all'Agenzia internazionale per l'energia atomica per regolamentare l'uso dell'IA.

Quell'avvertimento e la chiamata normativa, in un caso di tempismo storicamente scadente, è arrivato lo stesso giorno Altman minacciato per ritirare OpenAI, e con esso ChatGPT, dall'UE rispetto al blocco Legge sull'IA. Le regole che sostiene sono una cosa, ma Altman ha detto a Bruxelles che la loro idea di restrizione dell'IA era un ponte normativo troppo lontano, grazie mille. 

parlamentari Ue risposto affermando che non sarebbero dettati da OpenAI e che se la società non è in grado di rispettare le regole di governance e trasparenza di base, "i loro sistemi non sono adatti al mercato europeo", ha affermato l'eurodeputato olandese Kim van Sparrentak. 

Abbiamo chiesto a OpenAI chiarimenti sulla/e posizione/i di Altman e aggiorneremo questa storia se avremo notizie. ®

Timestamp:

Di più da Il registro