L’intelligenza artificiale è una responsabilità

L’intelligenza artificiale è una responsabilità

Nodo di origine: 3029233

Commento L’intelligenza artificiale, ovvero i grandi modelli fondamentali che prevedono il testo e possono classificare immagini e discorsi, sembra più una responsabilità che una risorsa.

Finora il danno al dollaro è stato lieve. Nel 2019, un conducente Tesla che stava guidando il suo veicolo con l’assistenza del software Autopilot della casa automobilistica ha acceso un semaforo rosso e ha colpito un altro veicolo. Gli occupanti sono morti e l'automobilista Tesla la scorsa settimana lo è stato ordinato pagare $ 23,000 in restituzione.

Tesla emise più o meno nello stesso periodo un richiamo di due milioni di veicoli per rivedere il proprio software Autopilota in risposta a un'indagine della National Highway Traffic Safety Administration (NHTSA) degli Stati Uniti che ha riscontrato carenze nei controlli di sicurezza dell'Autopilota.

Ventitremila dollari non sono tanti per due vite, ma le famiglie coinvolte stanno intentando cause civili contro l'autista e contro Tesla, quindi il costo potrebbe aumentare. E si dice che ce ne siano almeno una dozzina di cause legali che coinvolge Autopilot negli Stati Uniti.

Nel frattempo, nel settore sanitario, UnitedHealthcare è stato citato in giudizio perché il modello nH Predict AI acquisito attraverso l'acquisto di Navihealth nel 2020 avrebbe negato le necessarie cure post-acute agli anziani assicurati.

Sono necessarie restrizioni

Le aziende che vendono modelli e servizi di intelligenza artificiale comprendono chiaramente che c’è un problema. Si riferiscono ai “guardrail” messi in atto attorno ai modelli fondamentali per aiutarli a rimanere nella loro corsia, anche se presenti non funziona ottimo. Precauzioni di questo tipo non sarebbero necessarie se questi modelli non lo contenessero materiale pedopornografico e una panoplia di altri contenuti tossici.

È come se gli sviluppatori di intelligenza artificiale leggessero lo scrittore Alex Blechman post virale sulle aziende tecnologiche che interpretano il racconto ammonitore "Non creare il nesso del tormento" come una tabella di marcia del prodotto e hanno detto: "Mi sembra buono".

Naturalmente ci sono riferimenti letterari più antichi che si adattano all’intelligenza artificiale, come Frankenstein di Mary Shelley o il vaso di Pandora – una soluzione particolarmente adatta dato che i modelli di intelligenza artificiale vengono spesso definiti scatole nere a causa della mancanza di trasparenza sul materiale di formazione.

Finora, l’imperscrutabilità dei modelli commerciali disseminati di contenuti dannosi non ha avuto un impatto eccessivo sulle aziende. Ce n'è uno recente rivendicare da Chris Bakke, fondatore e CEO di Laskie (acquisita quest'anno da una società che si fa chiamare X), che un chatbot GM utilizzato da un concessionario di automobili di Watsonville, in California, è stato convinto ad accettare di vendere una Chevy Tahoe del 2024 per $ 1 con un po' di ingegneria tempestiva. Ma è improbabile che la concessionaria mantenga tale impegno.

Tuttavia, il rischio di fare affidamento sui modelli di intelligenza artificiale è già sufficiente Google, Microsofte Antropico si sono offerti di risarcire i clienti dalle rivendicazioni sul copyright (che sono numerose e in gran parte irrisolte). Non è qualcosa che fai a meno che non ci sia una possibilità di responsabilità.

Regolamento

Le autorità stanno ancora cercando di capire come valutare la responsabilità dell’IA. Consideriamo come la Commissione Europea ha inquadrato la questione mentre lavora verso la formulazione di un quadro giuridico praticabile per l’intelligenza artificiale:

“Le attuali norme sulla responsabilità, in particolare le norme nazionali basate sulla colpa, non sono adatte a gestire le richieste di risarcimento per i danni causati da prodotti/servizi basati sull’intelligenza artificiale”, afferma la Commissione disse [PDF] l'anno scorso. “Secondo tali norme, le vittime devono dimostrare un’azione/omissione illecita di una persona che ha causato il danno. Le caratteristiche specifiche dell’IA, tra cui l’autonomia e l’opacità (il cosiddetto effetto “scatola nera”), rendono difficile o proibitivamente costoso identificare la persona responsabile e dimostrare i requisiti per un’azione di responsabilità accolta”.

E i legislatori statunitensi lo hanno fatto proposto un quadro bipartisan sull’intelligenza artificiale per “garantire che le società di intelligenza artificiale possano essere ritenute responsabili attraverso l’applicazione degli organismi di supervisione e il diritto di azione dei privati ​​quando i loro modelli e sistemi violano la privacy, violano i diritti civili o causano altrimenti danni riconoscibili”.

Non entusiasmatevi troppo nel vedere i dirigenti delle aziende di intelligenza artificiale dietro le sbarre: il coinvolgimento dei leader del settore dell’intelligenza artificiale in questo processo suggerisce che qualsiasi regola che emergerà sarà efficace quanto altri quadri normativi che sono stati indeboliti dai lobbisti.

Ma l’entusiasmo è parte del problema: c’è così tanto clamore sui pappagalli stocastici, come sono stati chiamati i modelli di intelligenza artificiale.

I modelli di intelligenza artificiale hanno un valore reale in alcuni contesti, come notato dalla società di sicurezza Socket, che ha utilizzato ChatGPT aiuto bandiera vulnerabilità del software. Hanno fatto miracoli per il riconoscimento vocale, la traduzione e il riconoscimento delle immagini, a scapito dei trascrittori e dei puzzle CAPTCHA. Hanno ricordato ai veterani del settore quanto fosse divertente giocarci Eliza, uno dei primi chatbot. Sembra che abbiano una reale utilità nei lavori di supporto decisionale, a condizione che ci sia un essere umano nel giro. E hanno preso complessi incantesimi da riga di comando, con i loro flag e parametri assortiti, e li hanno trasformati in istruzioni di testo altrettanto complesse che possono andare avanti per paragrafi.

Ma l’automazione resa possibile dall’intelligenza artificiale ha un costo. In un recente articolo per la rivista di fantascienza Locus, l’autore e attivista Cory Doctorow ha affermato: “Le aziende di intelligenza artificiale stanno implicitamente scommettendo che i loro clienti compreranno l’intelligenza artificiale per l’automazione altamente consequenziale, i vigili del fuoco, e di conseguenza causeranno danni fisici, mentali ed economici ai propri clienti , sfuggendo in qualche modo alla responsabilità per questi danni.

Doctorow è scettico sul fatto che esista un mercato significativo per i servizi di intelligenza artificiale in aziende ad alto valore, a causa dei rischi e ritiene che siamo in una situazione Bolla dell'intelligenza artificiale. Indica come esempio GM Cruise, sottolineando che il modello di business dell’azienda automobilistica a guida autonoma – nel limbo a causa di un pedone ferito e di un richiamo – equivale a sostituire ciascun conducente a basso salario con 1.5 supervisori remoti più costosi, senza escludere la possibilità di incidenti e relative azioni legali.

Sovraccarico

Almeno c’è qualche potenziale per affari di basso valore associati all’intelligenza artificiale. Questi comportano il pagamento mensile per accedere a un'API per chat imprecise, generazione algoritmica di immagini che coopta gli stili degli artisti senza autorizzazione o generandone centinaia di siti di notizie false (o libri) In modo che "inonda la zona” con disinformazione.

Sembra improbabile che quello del Gruppo Arena rivendicare che la sua piattaforma AI possa ridurre dell’80-90% il tempo necessario per creare articoli per pubblicazioni come Sports Illustrated migliorerà la soddisfazione dei lettori, la fedeltà al marchio o la qualità dei contenuti. Ma forse generare più articoli di quanto umanamente possibile attraverso le centinaia di titoli dell’azienda porterà a più visualizzazioni di pagina da parte dei bot e a maggiori entrate pubblicitarie programmatiche da parte di acquirenti di annunci troppo ingenui per capirlo.

Parte del problema è che i principali promotori dell’intelligenza artificiale – Amazon, Google, Nvidia e Microsoft – gestiscono piattaforme cloud o vendono hardware GPU. Sono i venditori di picconi e pale della corsa all’oro dell’intelligenza artificiale, che vogliono solo vendere i loro servizi cloud o kit di elaborazione dei numeri. Erano tutti a favore della blockchain express e della supremazia della criptovaluta fino a quando quell'illusione non si è placata.

Sono ancora più entusiasti di aiutare le aziende a gestire carichi di lavoro di intelligenza artificiale, utili o meno. Stanno semplicemente effettuando il cloud seeding, sperando di indirizzare gli affari verso le loro operazioni di noleggio di processori. Allo stesso modo, le startup di machine learning senza infrastrutture sperano che i discorsi affannosi sulla tecnologia trasformativa aumentino la valutazione della loro azienda per premiare i primi investitori.

La mania dell’intelligenza artificiale può anche essere attribuita in parte allo sforzo perpetuo del settore tecnologico di rispondere a “Cosa verrà dopo?” durante un periodo di prolungata stasi. Apple, Google, Amazon, Meta, Microsofte Nvidia hanno fatto del loro meglio per prevenire una concorrenza significativa e dall’inizio dell’era del cloud e della telefonia mobile a metà degli anni 2000, lo hanno fatto abbastanza bene. Non che il comportamento anticoncorrenziale sia qualcosa di nuovo – ricordiamo l’industria del 2010 insediamento con il Dipartimento di Giustizia degli Stati Uniti sugli accordi tra Adobe, Google, Intel, Intuit e Pixar per evitare di sottrarsi reciprocamente i talenti.

Microsoft ha sfruttato gran parte della sua integrazione AI con Bing, a lungo messa in ombra dalla Ricerca Google, sostenendo che è "reinventare la ricerca.” Ma da allora non è cambiato molto: Bing riferito non è riuscita a sottrarre alcuna quota di mercato a Google, in un momento in cui è diffusa la sensazione che la ricerca di Google – anch’essa ora dotata di intelligenza artificiale – stia peggiorando.

Avanti nel 2024

Per scoprire cosa verrà dopo, dovremo aspettare che il Dipartimento di Giustizia e le autorità di regolamentazione in altre parti del mondo impongano i cambiamenti antitrust esecuzione e azioni legali. Perché mentre Google ha il controllo sulla distribuzione della ricerca – attraverso accordi con Apple e altri – e sulla pubblicità digitale – attraverso il suo accordo con Meta (sdoganato negli Stati Uniti, ancora sotto inchiesta in Europa e nel Regno Unito) e altre attività che piccato l’interesse del Dipartimento di Giustizia: né il business della ricerca né quello della pubblicità sembrano aperti a nuovi sfidanti, non importa quanta salsa AI venga aggiunta.

L’intelligenza artificiale è una responsabilità non solo in senso finanziario ma anche in senso etico. Promette risparmi salariali – nonostante essendo estremamente costoso in termini di formazione e sviluppo ed impatto ambientale – incoraggiando al contempo l’indifferenza verso il lavoro umano, la proprietà intellettuale, i risultati dannosi e l’accuratezza delle informazioni. L’intelligenza artificiale invita le aziende a rimuovere le persone dall’equazione quando spesso aggiungono valore che non è evidente in un bilancio.

C’è spazio affinché l’intelligenza artificiale sia veramente utile, ma deve essere utilizzata per aiutare le persone anziché per eliminarle. ®

Timestamp:

Di più da Il registro