Abbiamo bisogno di una regolamentazione per salvare l'umanità dall'intelligenza artificiale... e per salvare le azioni dell'intelligenza artificiale - CryptoInfoNet

Abbiamo bisogno di una regolamentazione per salvare l'umanità dall'intelligenza artificiale... e per salvare le azioni dell'intelligenza artificiale - CryptoInfoNet

Nodo di origine: 2968903

Come intelligenza artificiale (AI) pongono la tecnologia al centro della scena, gli investitori naturalmente fiutano opportunità nell'aria. Sentono anche l’odore dei moduli appena stampati e della burocrazia del regolatore che aspetta solo di prendere la sua parte e ostacolare la macchina ruggente dell’innovazione dell’intelligenza artificiale. Ma a coloro che temono che lo Zio Sam possa schiacciare l’industria attraverso nuove normative e restrizioni, direi che qui è vero l’esatto opposto: le normative possono salvare l’industria da se stessa. E per estensione, più normative per il settore proteggono, e non danneggiano, gli investitori. 

Nella maggior parte dei nuovi settori, la parola “regolamentazione” è un tabù. Ora, il settore dell’intelligenza artificiale non è esattamente nuovo. Il concetto moderno risale agli anni ’1950, e gli investimenti sia privati ​​che pubblici nel settore hanno avuto alti e bassi negli ultimi 70 anni circa. Gli anni '1980 e l'inizio degli anni '1990 videro a ciclo di espansione e contrazione negli investimenti in intelligenza artificiale. Gli investimenti del governo giapponese negli anni ’80 hanno dato il via al primo grande boom commerciale dell’IA. Tuttavia, nel 1993, “oltre 300 aziende chiusero i battenti” quando scoppiò la bolla. Tuttavia, i moderni progressi nella potenza di calcolo e nei modelli linguistici di grandi dimensioni (LLM) hanno dato nuova vita al settore, e il suo potenziale non attira solo gli investitori ma anche i regolatori.

Regolamenti sull’intelligenza artificiale: un pasticcio di interessi e rischi

La questione di cosa dovrebbe o addirittura potrebbe essere la “regolamentazione dell’intelligenza artificiale” spetta a politici, policy maker ed esperti di etica. Ciò che gli investitori vogliono sapere è cosa significherebbe per i loro portafogli, naturalmente. Quali sono i rischi maggiori? Ed è qui che le leggi e i regolamenti possono fornire protezione e aiutare a gestire tali rischi.

I maggiori rischi per gli investitori si riducono a tre preoccupazioni principali che si sovrappongono: frode, protezione della proprietà intellettuale e privacy. Naturalmente, ci sono già leggi sui libri che affrontano tutti e tre questi problemi individualmente. Il problema, tuttavia, è che l’intelligenza artificiale rappresenta una combinazione particolarmente complicata di tutti e tre i rischi che, senza quadri, leggi e regolamenti chiari, minacciano il progresso dell’intero settore.

La preoccupazione più urgente per gli investitori in questa lista è la frode. Quasi tutti sono d’accordo sul fatto che la prevenzione delle frodi riveste un ruolo importante e vitale della regolamentazione.

Scimmie fraudolente che cavalcano il filo: due casi di studio

Due casi di studio mostrano il potenziale futuro delle normative sull’IA, il rischio di frode e i tempi normativi che gli investitori dovrebbero aspettarsi. Entrambi esemplificano anche il modo in cui la frode determinerà le azioni normative future.

Il primo è il mondo delle criptovalute e dei token non fungibili (NFT). Un settore significativamente più nuovo dell’intelligenza artificiale, quello delle criptovalute ha visto la sua giusta dose di boom e crolli e, soprattutto, di frodi. La Securities and Exchange Commission (SEC) e la Federal Trade Commission (FTC) hanno trascorso un buon decennio cercando di capire come inserire le criptovalute nei loro schemi normativi. Nonostante ciò, il Congresso non ha ancora approvato alcuna legislazione esplicita relativa alle criptovalute alcuni tentativi.

In quel periodo, numerosi scambi sono aumentati e crollati. Gli NFT sono passati dall’essere di gran moda nel 2021 e nel 2022 a perdendo il 95% del loro valore, portando con sé miliardi di dollari degli investitori. Notoriamente, il crollo di FTX e recente prova di Sam Bankman-Fried riguardava miliardi di dollari di fondi utilizzati in modo fraudolento.

Il secondo caso di studio è quello della sicurezza informatica. A differenza delle criptovalute, ci sono alcune leggi fondamentali stabilite sui libri del settore. Le prime due “vere” leggi sulla sicurezza informatica sono state il Computer Fraud and Abuse Act del 1986 e il Comprehensive Crime Control Act del 1984. Entrambi si basavano su interpretazioni creative e relativamente nuove dei “fili” (come i cavi telegrafici) e delle frodi telefoniche.

Nei decenni successivi, il Congresso ha approvato leggi frammentarie su argomenti informatici risultati misti. Ciò ha portato gli Stati a colmare il vuoto. Il mondo della sicurezza informatica fornisce anche un esempio di un settore con interessi profondamente intersecati, molti dei quali non sono dissimili dai rischi e dai punti ciechi normativi che affliggono il settore dell’intelligenza artificiale. Uno dei più notevoli è la privacy. Le preoccupazioni sulla privacy individuale, comunemente associate ai social media e all’Internet delle cose (IoT), sorgono anche con i modelli di formazione basati sull’intelligenza artificiale.

Entrambi gli esempi qui riportati forniscono lezioni per il settore dell’intelligenza artificiale in rapida crescita. L'ambiente ad alto rischio, alto rendimento e bassa regolamentazione del mondo delle criptovalute è pieno di frodi e instabilità. La sicurezza informatica è un settore molto più antico e consolidato, ma il contesto normativo è ancora lacunoso, soprattutto per quanto riguarda la privacy.

Lo stato attuale delle normative sull’IA

Quindi, per avere un’idea di quale di questi percorsi normativi gli investitori dovrebbero aspettarsi, diamo un’occhiata all’attuale contesto normativo per l’intelligenza artificiale.

A cominciare dalla scena domestica, beh… non c'è molto, almeno a livello legislativo. Il presidente Joe Biden, d’altro canto, è stato impegnato a creare un percorso normativo attraverso un impegno volontario e, più recentemente, e soprattutto, un ordine esecutivo di portata storica e radicale.

All’inizio di quest’anno, la Casa Bianca ha annunciato un impegno volontario non vincolante “gestire i rischi posti dall’intelligenza artificiale”. Tra i firmatari di questo impegno ci sono alcuni grandi nomi come Amazon (NASDAQ:AMZN), Meta Piattaforme (NASDAQ:META), Alfabeto (NASDAQ:GOOG, NASDAQ:GOOGL) e OpenAI. Anche l'Office of Science and Technology Policy (OSTP), un dipartimento della Casa Bianca, ha pubblicato un documento "Progetto per una Carta dei diritti AI". Un altro quadro particolarmente volontario per un utilizzo sicuro ed etico dell’IA.

Secondo la Casa Bianca, “l’utilizzo sicuro ed etico dell’IA” richiede rigorosi “test pre-implementazione” e viene creato con “la consultazione di diverse comunità, parti interessate ed esperti del settore per identificare preoccupazioni, rischi e potenziali impatti del sistema”. I sistemi di intelligenza artificiale dovrebbero inoltre disporre di “valutazioni e relazioni indipendenti” per garantire che rimangano sicuri a lungo termine.

Ordine esecutivo sull'intelligenza artificiale di Biden

Nelle prime ore del mattino del 30 ottobre, la Casa Bianca ha annunciato l’iniziativa normativa più completa in materia di intelligenza artificiale. Guidare questo sforzo è stato un ampio ordine esecutivo (e un nuovo elegante sito web) che copre tutto, dalla sicurezza alla privacy, ai diritti civili e altro ancora. Questo ordine esecutivo si basa sull'impegno volontario di cui sopra e sulla Carta dei diritti dell'AI, e si concentra prevalentemente su ciò che fa la maggior parte degli ordini esecutivi: mobilitare i numerosi dipartimenti e agenzie del ramo esecutivo all'azione.

Ci sono molti dettagli da chiarire riguardo all’impatto che questo ordine esecutivo avrà sul settore, ma i suggerimenti più significativi per gli investitori sono:

1. Ci vorrà del tempo prima che le autorità di regolamentazione sviluppino queste nuove linee guida e politiche.

2. Qualunque normativa specifica emerga da questa EO sarà costruita su basi legali instabili fino a quando il Congresso non approverà le leggi relative all’IA. Dipende ancora dall’adesione volontaria, con un’importante eccezione: il Defense Production Act (DPA).

L'invocazione del DPA da parte di Biden è tanto notevole quanto confusa. La DPA era l’unica legge esplicita a cui fa riferimento l’EO con alcune implicazioni potenzialmente potenti. Il DPA è stato utilizzato più recentemente nel contesto della pandemia di Covid-19, ma è tipicamente associato alla produzione in tempo di guerra. Biden lo usa qui in un contesto puramente di sicurezza nazionale:

“…l’Ordinanza richiederà che le aziende che sviluppano qualsiasi modello di fondazione che rappresenti un serio rischio per la sicurezza nazionale, la sicurezza economica nazionale o la salute e la sicurezza pubblica nazionale debbano notificare il governo federale durante la formazione del modello e condividere i risultati di tutte le procedure rosse test di sicurezza della squadra.

Non è chiaro chi sia coperto da questo “processo di revisione” sostenuto dal DPA poiché altre agenzie hanno responsabilità normative più specifiche. Ad esempio, il National Institute of Standards and Technology (NIST) dovrà sviluppare standard di sicurezza per l’IA e il Department of Homeland Security (DHS) consiste nell'implementarli per le infrastrutture critiche. Forse ancora più importante è che sia necessario chiarire quale agenzia attuerà questa politica.

C’è un candidato degno di nota che la DPA coprirebbe quasi sicuramente a causa dei suoi contratti di difesa esistenti: Palantir (NYSE:PLTR). L’appaltatore della difesa specializzato in Big Data e sempre più focalizzato sull’intelligenza artificiale non è un firmatario dell’accordo della Casa Bianca impegno volontario. Ciò potrebbe avere più a che fare con le tendenze politiche conservatore-libertarie del presidente della Palantir Peter Thiel e con il sostegno all’ex presidente Donald Trump che con il rifiuto totale di ulteriori regolamentazioni. Tuttavia, questa omissione è notevole poiché Palantir ha grandi progetti “prendendo l’intero mercato dell’intelligenza artificiale”.

Nel complesso, il quadro normativo stabilito dall’Ordine Esecutivo di Biden è rivoluzionario e consente al Congresso di costruire il resto dell’autorità normativa, per così dire.

Sfortunatamente, potremmo aspettare ancora a lungo prima che i legislatori inizino a “versare il cemento”.

E il Congresso?

L'ordine esecutivo sull'intelligenza artificiale della Casa Bianca fa solo due riferimenti al Congresso, ma entrambi sono richieste affinché il Congresso approvi leggi bipartisan sull'intelligenza artificiale (uno riguardava esplicitamente l'approvazione di una legge sulla privacy).

Secondo il Brennan Center For Justice, il Congresso ha circa 60 fatture relative all’intelligenza artificiale seduti in varie commissioni.

Tuttavia, al momento della stesura di questo articolo, la Camera dei Rappresentanti ha appena concluso l’accordo su un nuovo Presidente della Camera e ha “pesce più grosso da friggere” con l’ennesima scadenza imminente per lo shutdown del governo e la conseguente battaglia sul bilancio incombente. Per non parlare delle controverse leggi sugli aiuti di Israele e Ucraina e di una serie di altre preoccupazioni più urgenti.

Ciò lascia altre due fonti per le normative sull’IA: i singoli stati americani e gli attori internazionali. Il primo gruppo, composto solo da una manciata di 50 stati del paese, lo ha fatto superato un mosaico delle leggi pertinenti, con l’intelligenza artificiale e la privacy dei consumatori al centro dell’attenzione. A livello internazionale, la Cina è all’avanguardia nella costruzione di un insieme complesso ed avanzato della normativa sull’IA. Il quadro normativo completo dell'Unione europea, intitolato semplicemente “Legge sull’intelligenza artificiale” si prevede che sarà finalizzato e approvato entro la fine dell'anno.

Normative sull’intelligenza artificiale e cosa riserva il futuro

Allora dove si colloca questo settore in rapida crescita e potenzialmente altamente dirompente? Prenderà il percorso crittografico verso la regolamentazione, che è stata piena di frodi e instabilità? O il percorso di sicurezza informatica più lento, più stabile ma ancora frammentario. Bene, per ora, almeno negli Stati Uniti, sarà probabilmente un mix dei due.

L’intelligenza artificiale ha il potenziale dirompente e redditizio che l’industria delle criptovalute può solo sognare. Tuttavia, ha anche il potenziale e l’utilità mainstream offerti dal settore della sicurezza informatica. Per gli investitori, e per non sembrare troppo sensazionalista, per l’umanità, si tratta di una combinazione rischiosa.

Esistono una miriade di potenziali applicazioni dell’intelligenza artificiale nel mondo reale, dall’agricoltura alla difesa, alla finanza e all’assistenza sanitaria. Un furto di criptovalute potrebbe frodare gli investitori dei loro soldi, o un hacker potrebbe rubare soldi da una banca, ma i rischi derivanti da incidenti legati all’intelligenza artificiale o comportamenti dannosi potrebbe essere catastrofico.

Le ipotesi su cosa potrebbe andare storto sono infinite poiché l’intelligenza artificiale è sempre più incorporata nella vita di tutti i giorni. Ma stiamo già assistendo a preoccupanti casi d’uso dannosi per l’intelligenza artificiale. Il recente inizio della guerra tra Israele e Hamas ha portato a un’ondata di disinformazione sulle piattaforme di social media come X, ex Twitter. Alcune delle immagini false condivise online sono generate dall'intelligenza artificiale, spesso create con strumenti facilmente accessibili come Image Generator di Bing. Con il continuo miglioramento della tecnologia, diventerà più difficile identificare immagini e video falsi.

Ci stiamo anche scontrando con rischi che una volta si trovavano solo nella fantascienza, come le “IA canaglia”. Mentre un pianificatore di pasti AI suggerendo accidentalmente una ricetta per il cloro gassoso vale qualche risatina oggi, sarebbe molto meno divertente se fosse un'intelligenza artificiale responsabile, ad esempio, di una fattoria automatizzata su larga scala che contamina accidentalmente (o peggio, intenzionalmente) un raccolto di verdure.

Come dice il proverbio: “Le norme di sicurezza sono scritte con il sangue”. E non dovremmo davvero aspettare che venga versato il sangue prima di agire.

Legalmente esiste già una causa contro Google che, secondo l'azienda, distruggere il concetto di IA generativa. Ciò di cui l’industria ha bisogno per evitare questo destino sono norme chiare e applicabili che possano proteggere sia il pubblico che le aziende di intelligenza artificiale dalle reciproche ire legali.

Per il bene degli investitori e di tutti, è necessario un maggiore controllo normativo sul settore dell’intelligenza artificiale prima che qualcosa vada terribilmente storto. Il nuovo ordine esecutivo della Casa Bianca fornisce un quadro molto completo su numerose questioni relative all’intelligenza artificiale e rappresenta un buon inizio. Tuttavia, senza le leggi approvate dal Congresso che forniscano una solida base su cui costruire i regolatori, ci ritroveremo con un pasticcio in stile criptovaluta di regolatori confusi. Ciò porterà soltanto a confondere i partecipanti al mercato e gli investitori. E dato che il potenziale dell’intelligenza artificiale è così grande e pericoloso, non è qualcosa che qualcuno dovrebbe desiderare.

Quindi no, le normative sull’IA non lo sono "il nemico," come afferma il manifesto di un venture capitalist, ma possono fungere da barriere di sicurezza che possono aiutare a proteggere il settore e gli investitori da rischi enormi.

Cosa dovrebbero fare gli investitori ora

Senza barriere chiare, investire nel mondo dell’intelligenza artificiale è un’attività rischiosa. Gli investitori che non sono terribilmente preoccupati per l’impatto di queste normative messe insieme possono fare scommesse più rischiose sulla serie di startup che cercano di arricchirsi. O su giochi consolidati ma sprezzanti per il regolamento come Palantir.

Altrimenti, gli investitori farebbero meglio a vedere quali aziende stanno “giocando a palla” con l'impegno volontario della Casa Bianca. O quelli che si stanno adattando ai cambiamenti normativi internazionali provenienti dall’UE e dalla Cina. Queste aziende probabilmente vedono queste nuove normative come qualcosa con cui convivere o qualcosa che possono utilizzare a proprio vantaggio.

In ogni caso, prima o poi il martello della regolamentazione cadrà. Sarebbe meglio per tutti, non solo per gli investitori, che crollasse prima che la seconda metà dell’espressione “muoviti velocemente e rompi le cose” rompa il settore dell’intelligenza artificiale.

Alla data della pubblicazione, Andrew Bush deteneva una posizione LUNGA nelle azioni GOOGL e AMZN. Le opinioni espresse in questo articolo sono quelle dello scrittore, soggette alle Linee guida per la pubblicazione di InvestorPlace.com.

Andrew Bush è un redattore di notizie finanziarie per InvestorPlace e ha conseguito due lauree in affari internazionali. Ha lavorato nel campo dell'istruzione, nel settore tecnologico e come analista di ricerca per una società di consulenza focalizzata sulla sicurezza nazionale con sede a Washington.

Fonte

#Regolamento #Salva #Umanità #AI.. #Salva #Borsa

Timestamp:

Di più da CriptoInfonet