Stati Uniti, Gran Bretagna e altri paesi firmano linee guida per l'intelligenza artificiale "secure by design".

Stati Uniti, Gran Bretagna e altri paesi firmano linee guida per l'intelligenza artificiale "secure by design".

Nodo di origine: 2979839

Gli Stati Uniti, il Regno Unito, l’Australia e altri 15 paesi hanno pubblicato linee guida globali per aiutare a proteggere i modelli di intelligenza artificiale da eventuali manomissioni, esortando le aziende a rendere i loro modelli “sicuri fin dalla progettazione”.

Il 26 novembre, i 18 paesi hanno pubblicato un documento di 20 pagine documento delineando come le aziende di intelligenza artificiale dovrebbero gestire la propria sicurezza informatica quando sviluppano o utilizzano modelli di intelligenza artificiale, poiché affermano che "la sicurezza può spesso essere una considerazione secondaria" in un settore in rapida evoluzione.

Le linee guida consistevano in raccomandazioni per lo più generali come mantenere uno stretto controllo sull’infrastruttura del modello di intelligenza artificiale, monitorare eventuali manomissioni dei modelli prima e dopo il rilascio e formare il personale sui rischi per la sicurezza informatica.

Non sono state menzionate alcune questioni controverse nello spazio dell’intelligenza artificiale, inclusi i possibili controlli che dovrebbero esserci sull’uso modelli generatori di immagini e falsi profondi o metodi di raccolta dati e utilizzo nei modelli di training: un problema riscontrato diverse aziende di intelligenza artificiale hanno fatto causa sulle denunce di violazione del copyright.

“Siamo a un punto di svolta nello sviluppo dell’intelligenza artificiale, che potrebbe essere la tecnologia più importante del nostro tempo”, ha affermato il segretario americano per la sicurezza interna Alejandro Mayorkas. disse in una dichiarazione. “La sicurezza informatica è fondamentale per costruire sistemi di intelligenza artificiale sicuri, protetti e affidabili”.

Correlato: La coalizione tecnologica dell’UE mette in guardia contro un’eccessiva regolamentazione dell’IA prima della finalizzazione della legge sull’intelligenza artificiale dell’UE

Le linee guida seguono altre iniziative governative che influiscono sull’intelligenza artificiale, compresi i governi e le aziende di intelligenza artificiale riunione per un vertice sulla sicurezza dell'intelligenza artificiale a Londra all’inizio di questo mese per coordinare un accordo sullo sviluppo dell’intelligenza artificiale.

Nel frattempo, l’Unione Europea lo è svelare i dettagli del suo AI Act che supervisionerà lo spazio e il presidente degli Stati Uniti Joe Biden in ottobre ha emesso un ordine esecutivo che fissa gli standard per la sicurezza e la protezione dell’IA, sebbene entrambi hanno visto respingimenti dal settore dell’intelligenza artificiale sostenendo che potrebbero soffocare l’innovazione.

Altri cofirmatari delle nuove linee guida “secure by design” includono Canada, Francia, Germania, Israele, Italia, Giappone, Nuova Zelanda, Nigeria, Norvegia, Corea del Sud e Singapore. Anche le aziende di intelligenza artificiale, tra cui OpenAI, Microsoft, Google, Anthropic e Scale AI, hanno contribuito allo sviluppo delle linee guida.

Magazine: AI Eye: usi reali dell'intelligenza artificiale nelle criptovalute, rivale GPT-4 di Google, vantaggio dell'intelligenza artificiale per dipendenti scadenti

Timestamp:

Di più da Cointelegraph