OpenAI chiede all'agenzia globale di regolamentare la superintelligenza

OpenAI chiede all'agenzia globale di regolamentare la superintelligenza

Nodo di origine: 2674707

Un'agenzia internazionale dovrebbe essere incaricata di ispezionare e controllare l'intelligenza artificiale generale per garantire che la tecnologia sia sicura per l'umanità, secondo i massimi dirigenti del produttore di GPT-4 OpenAI.

Il CEO Sam Altman e i co-fondatori Greg Brockman e Ilya Sutskever hanno affermato che è "concepibile" che l'IA ottenga abilità straordinarie che superino gli esseri umani nel prossimo decennio.

“In termini di potenziali vantaggi e svantaggi, la superintelligenza sarà più potente di altre tecnologie con cui l'umanità ha dovuto confrontarsi in passato. Possiamo avere un futuro drammaticamente più prospero; ma dobbiamo gestire il rischio per arrivarci”, il trio ha scritto il Martedì.

I costi per costruire una tecnologia così potente stanno solo diminuendo man mano che più persone lavorano per farla progredire, hanno sostenuto. Per controllare i progressi, lo sviluppo dovrebbe essere supervisionato da un'organizzazione internazionale come l'Agenzia internazionale per l'energia atomica (AIEA).

L'AIEA è stata fondata nel 1957 durante un periodo in cui i governi temevano che le armi nucleari sarebbero state sviluppate durante la Guerra Fredda. L'agenzia aiuta a regolamentare l'energia nucleare e stabilisce misure di salvaguardia per assicurarsi che l'energia nucleare non venga utilizzata per scopi militari.

“Probabilmente alla fine avremo bisogno di qualcosa come un'AIEA per gli sforzi di superintelligence; qualsiasi sforzo al di sopra di una certa soglia di capacità (o risorse come il calcolo) dovrà essere soggetto a un'autorità internazionale che può ispezionare i sistemi, richiedere audit, verificare la conformità agli standard di sicurezza, porre restrizioni sui gradi di implementazione e sui livelli di sicurezza, ecc. " loro hanno detto.

Tale gruppo sarebbe incaricato di monitorare il consumo di calcolo e di energia, risorse vitali necessarie per addestrare ed eseguire modelli grandi e potenti.

"Potremmo concordare collettivamente che il tasso di crescita della capacità di intelligenza artificiale alla frontiera sia limitato a un certo tasso all'anno", ha suggerito il vertice di OpenAI. Le aziende dovrebbero acconsentire volontariamente alle ispezioni e l'agenzia dovrebbe concentrarsi sulla "riduzione del rischio esistenziale", non sulle questioni normative che sono definite e stabilite dalle singole leggi di un paese.

La scorsa settimana, Altman ha avanzato l'idea che le aziende dovrebbero ottenere una licenza per costruire modelli con capacità avanzate al di sopra di una soglia specifica in un Senato udito. Il suo suggerimento è stato successivamente criticato poiché potrebbe avere un impatto ingiusto sui sistemi di intelligenza artificiale costruiti da aziende più piccole o dalla comunità open source che hanno meno probabilità di disporre delle risorse per soddisfare i requisiti legali.

"Riteniamo che sia importante consentire alle aziende e ai progetti open source di sviluppare modelli al di sotto di una soglia di capacità significativa, senza il tipo di regolamentazione che descriviamo qui (compresi meccanismi gravosi come licenze o audit)", hanno affermato.

Elon Musk alla fine di marzo è stato uno dei 1,000 firmatari di una lettera aperta che chiedeva una pausa di sei mesi nello sviluppo e nell'addestramento di IA più potenti di GPT4 a causa dei potenziali rischi per l'umanità, qualcosa che Altman confermato a metà aprile stava facendo.

"I potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo certi che i loro effetti saranno positivi e i loro rischi saranno gestibili", afferma la lettera.

Il CEO di Alphabet e Google Sundar Pichai ha scritto un articolo sul Financial Times durante il fine settimana, detto: "Continuo a credere che l'IA sia troppo importante per non regolamentare e troppo importante per non regolamentare bene". ®

Timestamp:

Di più da Il registro