Inteligența artificială este o răspundere

Inteligența artificială este o răspundere

Nodul sursă: 3029233

Comentariu Inteligența artificială, adică modele de bază mari care prezic text și pot clasifica imaginile și vorbirea, arată mai mult ca o datorie decât un activ.

Până acum, prejudiciul dolarului a fost minor. În 2019, un șofer Tesla care își conducea vehiculul cu asistența software-ului Autopilot al producătorului de mașini a dat lumina roșie și a lovit un alt vehicul. Pasagerii au murit, iar șoferul Tesla săptămâna trecută a fost ordonat să plătească 23,000 USD drept restituire.

Tesla a emis aproximativ în aceeași perioadă o rechemare a două milioane de vehicule pentru a-și revizui software-ul Autopilot ca răspuns la o investigație a Administrației Naționale pentru Siguranța Traficului pe Autostradă (NHTSA) din SUA, care a constatat lipsa controalelor de siguranță ale Autopilot.

Douăzeci și trei de mii de dolari nu înseamnă mult pentru două vieți, dar familiile implicate urmăresc acțiuni civile împotriva șoferului și împotriva Tesla, așa că costul ar putea crește. Și se spune că există cel puțin o duzină de procese implicând Autopilot în SUA.

Între timp, în industria sănătății, UnitedHealthcare este dat în judecată deoarece modelul nH Predict AI pe care l-a achiziționat în 2020 a Navihealth ar fi refuzat îngrijirea post-acută necesară persoanelor în vârstă asigurate.

Sunt necesare restricții

Companiile care vând modele și servicii AI înțeleg clar că există o problemă. Ei se referă la „balustrade” instalate în jurul modelelor de bază pentru a-i ajuta să rămână pe banda lor – chiar dacă acestea nu merge foarte bine. Precauții de acest fel ar fi inutile dacă aceste modele nu ar conține material de abuz sexual asupra copiilor și o panoplie de alt conținut toxic.

Este ca și cum dezvoltatorii AI l-ar fi citit pe scriitorul Alex Blechman post viral despre companiile tehnologice care interpretează povestea de avertizare „Nu creați Torment Nexus” ca pe o foaie de parcurs pentru produse și au spus: „Mi se pare bine”.

Desigur, există referințe literare mai vechi care se potrivesc cu inteligența artificială, cum ar fi Frankenstein a lui Mary Shelley sau Cutia Pandorei – o potrivire deosebit de bună, având în vedere că modelele de inteligență artificială sunt adesea denumite cutii negre din cauza lipsei de transparență a materialului de instruire.

Până acum, inscrutabilitatea modelelor comerciale presărate cu conținut dăunător nu a afectat prea mult afacerile. Există un recent pretinde de Chris Bakke, fondator și CEO la Laskie (achiziționat anul acesta de o companie care se numește X), că un chatbot GM folosit de un dealer auto din Watsonville, California, a fost convins să accepte să vândă un Chevy Tahoe din 2024 pentru $ 1 cu un pic de inginerie promptă. Dar nu este probabil ca dealerul să-și respecte acest angajament.

Totuși, riscul de a te baza pe modelele AI este suficient pentru asta Google, Microsoft, și Antropică s-au oferit să despăgubească clienții pentru pretențiile privind drepturile de autor (care sunt numeroase și în mare parte nerezolvate). Nu este ceva ce faci decât dacă există o șansă de răspundere.

Regulament

Autoritățile încă încearcă să descopere cum ar trebui să fie evaluată răspunderea AI. Luați în considerare modul în care Comisia Europeană a încadrat problema în timp ce lucrează la formularea unui cadru legal viabil pentru inteligența artificială:

„Regulile actuale privind răspunderea, în special normele naționale bazate pe culpă, nu sunt adaptate pentru a gestiona cererile de despăgubire pentru prejudiciul cauzat de produse/servicii bazate pe inteligență artificială”, a declarat Comisia. a spus [PDF] anul trecut. „În astfel de reguli, victimele trebuie să dovedească o acțiune/omisiune greșită a unei persoane care a cauzat prejudiciul. Caracteristicile specifice ale IA, inclusiv autonomia și opacitatea (așa-numitul efect „cutie neagră”), fac dificilă sau prohibitiv de costisitoare identificarea persoanei răspunzătoare și dovedirea cerințelor pentru o cerere de răspundere de succes.”

Și parlamentarii americani au făcut-o propus un cadru AI bipartizan pentru „a se asigura că companiile AI pot fi considerate răspunzătoare prin aplicarea legii organismului de supraveghere și prin drepturile private de acțiune atunci când modelele și sistemele lor încalcă viața privată, încalcă drepturile civile sau provoacă în alt mod daune vizibile”.

Nu vă încântați să vedeți directori de firme de inteligență artificială în spatele gratiilor: implicarea liderilor din industria de inteligență artificială în acest proces sugerează că orice reguli care vor apărea vor fi la fel de eficiente ca și alte cadre de reglementare care au fost respinse de lobbyiști.

Dar entuziasmul face parte din problemă: există atât de mult hype despre papagalii stohastici, așa cum au fost numite modelele AI.

Modelele de inteligență artificială au valoare reală în unele contexte, așa cum a menționat firma de securitate Socket, care a folosit ChatGPT pentru steag de ajutor vulnerabilități software. Au făcut minuni pentru recunoașterea vorbirii, traducerea și recunoașterea imaginilor, în detrimentul transcriorilor și puzzle-urilor CAPTCHA. Le-au reamintit veteranilor din industrie cât de distractiv a fost să te joci Eliza, un chatbot timpuriu. Se pare că au o utilitate reală în locurile de muncă de sprijin decizional, cu condiția să existe un om în buclă. Și au luat incantații complexe de linie de comandă, cu steaguri și parametri asortate, și le-au transformat în solicitări de text la fel de complexe, care pot continua pentru paragrafe.

Dar automatizarea activată de AI are un cost. Într-un recent articol pentru revista comercială științifico-fantastică Locus, autorul și activistul Cory Doctorow a argumentat: „Companiile AI pariază implicit că clienții lor vor cumpăra AI pentru automatizări extrem de importante, vor da incendii și, ca urmare, vor cauza prejudicii fizice, mentale și economice propriilor clienți. , scăpând cumva de răspunderea pentru aceste prejudicii.”

Doctorow este sceptic că există o piață semnificativă pentru serviciile de inteligență artificială în afacerile de mare valoare, din cauza riscurilor și crede că ne aflăm într-un bulă AI. El indică ca exemplu GM Cruise, menționând că modelul de afaceri al companiei de mașini autonome – in uitare din cauza rănirii pietonului și a retragerii – echivalează cu înlocuirea fiecărui șofer cu un salariu mic cu 1.5 supraveghetori la distanță mai scumpi, fără a exclude posibilitatea producerii unor accidente și procese asociate.

Suprasarcină

Cel puțin există un potențial pentru afaceri de valoare redusă asociate cu AI. Acestea implică plata lunară pentru a accesa un API pentru chat inexact, generarea de imagini algoritmice care cooptează stilurile artiștilor fără permisiune sau generând sute a site-urilor de știri false (sau cărţi) într-un mod în care „inundă zona” cu dezinformare.

Pare puțin probabil ca Arena Group pretinde că platforma sa de inteligență artificială poate reduce timpul necesar pentru a crea articole pentru publicații precum Sports Illustrated cu 80-90% va îmbunătăți satisfacția cititorilor, loialitatea mărcii sau calitatea conținutului. Dar poate că generarea mai multor articole decât este posibil uman în sutele de titluri ale companiei va duce la mai multe vizualizări ale paginilor de către roboți și la mai multe venituri din reclame programatice de la cumpărători de anunțuri prea naivi pentru a fi deprinși.

O parte a problemei este că principalii promotori AI – Amazon, Google, Nvidia și Microsoft – operează platforme cloud sau vând hardware GPU. Ei sunt vânzătorii cu lopată ai goanei aurului AI, care doresc doar să-și vândă serviciile cloud sau kit-ul de strângere a numărului. Toți au fost la bord pentru supremația blockchain express și criptomonede până când acea iluzie s-a stins.

Sunt și mai entuziasmați să ajute companiile să ruleze sarcini de lucru AI, utile sau nu. Ei pur și simplu seminează în cloud, sperând să conducă afacerile către operațiunile lor de închiriere a procesorului. În mod similar, startup-urile de învățare automată, fără infrastructură, speră că vorburile abundente despre tehnologia transformațională le vor umfla evaluarea companiei pentru a-și recompensa investitorii timpurii.

Nebunia AI poate fi, de asemenea, atribuită în parte efortului perpetuu al industriei tehnologice de a răspunde „Ce urmează?” într-o perioadă de stază prelungită. Apple, Google, Amazon, meta, Microsoft, și Nvidia Toți au făcut tot posibilul pentru a preveni concurența semnificativă și, de la începutul erei cloud și mobile, la mijlocul anilor 2000, s-au descurcat destul de bine. Nu că comportamentul anticoncurențial este ceva nou – amintiți-vă industria din 2010 așezare cu Departamentul de Justiție al SUA cu privire la acordurile dintre Adobe, Google, Intel, Intuit și Pixar pentru a evita braconajul talentelor unul de la celălalt.

Microsoft a făcut o mare parte din integrarea sa AI cu Bing, mult timp umbrită de Căutarea Google, susținând că este „reinventând căutarea.” Dar nu s-au schimbat multe de atunci – Bing relatărilor nu a reușit să ia nicio cotă de piață de la Google, într-un moment în care există sentimentul larg răspândit că Căutarea Google – de asemenea, acum plină de inteligență artificială – s-a înrăutățit.

Treci în 2024

Pentru a afla ce urmează, va trebui să așteptăm ca Departamentul de Justiție și autoritățile de reglementare din alte părți ale lumii să impună schimbări. antitrust executare silita si procese. Pentru că, în timp ce Google are un blocaj asupra distribuției căutărilor – prin acorduri cu Apple și alții – și publicității digitale – prin acordul său cu Meta (eliberat în SUA, încă sub investigatie în Europa şi Marea Britanie) şi alte activităţi care picat interesul Departamentului de Justiție – nici afacerea de căutare, nici cea de reclame nu par a fi potrivite pentru noii concurenți, indiferent cât de mult s-ar adăuga sos AI.

AI este o responsabilitate nu doar în sens financiar, ci și în sens etic. Promite economii salariale – în ciuda fiind extrem de scump din punct de vedere al pregătire și dezvoltare și impact asupra mediului – încurajând în același timp indiferența față de munca umană, proprietatea intelectuală, producția dăunătoare și acuratețea informațională. AI invită companiile să elimine oamenii din ecuație atunci când adesea adaugă valoare care nu este evidentă dintr-un bilanţ.

Există loc pentru ca AI să fie cu adevărat util, dar trebuie implementat pentru a ajuta oamenii, mai degrabă decât pentru a scăpa de ei. ®

Timestamp-ul:

Mai mult de la Registrul