Avem nevoie de reglementări pentru a salva umanitatea de AI... Și pentru a salva stocurile de AI - CryptoInfoNet

Avem nevoie de reglementări pentru a salva umanitatea de AI... și pentru a salva stocurile de AI – CryptoInfoNet

Nodul sursă: 2968903

Ca inteligență artificială (AI) dezvoltările împins tehnologia în centrul scenei, investitorii în mod natural miros oportunitatea în aer. De asemenea, mirosul formelor proaspăt tipărite și a birocrației regulatorului care abia așteaptă să-și ia tăietura și să împiedice mașina de inovație AI. Dar celor îngrijorați că unchiul Sam ar putea zdrobi industria prin noi reglementări și restricții, le-aș argumenta că exact opusul este adevărat aici: reglementările pot salva industria de la sine. Și, prin extensie, mai multe reglementări pentru industrie protejează, nu dăunează, investitorii. 

În majoritatea industriilor noi, cuvântul „reglementare” este tabu. Acum, industria AI nu este tocmai nouă. Conceptul modern datează din anii 1950, iar investițiile atât private, cât și publice în domeniu au crescut și au scăzut în ultimii 70 de ani. Anii 1980 și începutul anilor 1990 au văzut o ciclu boom-and-efl în investiții în inteligența artificială. Investițiile guvernului japonez în anii 80 au dat startul primului boom comercial de IA. Cu toate acestea, până în 1993, „peste 300 de companii și-au închis porțile” când bula a apărut. Cu toate acestea, progresele moderne în ceea ce privește puterea de calcul și modelele de limbaj mari (LLM) au dat o nouă viață industriei, iar potențialul său nu atrage doar investitori, ci și autoritățile de reglementare.

Reglementări AI: o mizerie de interese și riscuri

Întrebarea care ar trebui sau chiar poate fi „reglementarea IA” este una pentru politicieni, factorii de decizie și eticieni. Ceea ce doresc investitorii să știe este ce ar însemna pentru portofoliile lor, desigur. Care sunt cele mai mari riscuri? Și aici legile și reglementările pot oferi o anumită protecție și pot ajuta la gestionarea acestor riscuri.

Cele mai mari riscuri pentru investitori se rezumă la trei preocupări principale care se suprapun: fraudă, protecția proprietății intelectuale și confidențialitatea. Desigur, există deja legi în cărți care abordează toate aceste trei probleme în mod individual. Problema, însă, este că AI reprezintă o combinație unică și complicată a tuturor celor trei riscuri care, fără cadre, legi și reglementări clare, amenință progresul întregii industrie.

Cea mai presantă preocupare de pe această listă pentru investitori este frauda. Aproape toată lumea poate fi de acord că prevenirea fraudei este un rol important și vital al reglementării.

Maimuțe frauduloase: două studii de caz

Două studii de caz arată viitorul potențial al reglementărilor AI, riscul de fraudă și intervalele de timp de reglementare la care ar trebui să se aștepte investitorii. Ambele simbolizează, de asemenea, modul în care frauda va modela acțiunile de reglementare care vor urma.

Prima este lumea criptomonedelor și a jetoanelor nefungibile (NFT). O industrie semnificativ mai nouă decât AI, cripto a cunoscut o parte echitabilă de boom-uri și explozii și, cel mai important, fraudă. Securities and Exchange Commission (SEC) și Federal Trade Commission (FTC) au petrecut un deceniu bun încercând să-și dea seama cum să integreze cripto-ul în schemele lor de reglementare. Cu toate acestea, Congresul nu a adoptat încă nicio legislație explicită legată de cripto unele încercări.

În acel timp, numeroase schimburi au crescut și s-au prăbușit. NFT-urile au trecut de la furie în 2021 și 2022 la pierzând 95% din valoarea lor, luând cu ei miliarde de dolari investitorilor. În mod infam, prăbușirea FTX și proces recent a lui Sam Bankman-Fried a implicat miliarde de dolari din fonduri utilizate fraudulos.

Al doilea studiu de caz aici este cel al securității cibernetice. Spre deosebire de cripto, există destul de multe legi de bază stabilite în cărțile pentru industrie. Primele două legi „adevărate” privind securitatea cibernetică au fost Legea privind frauda și abuzul informatic din 1986 și Legea privind controlul global al criminalității din 1984. Ambele s-au bazat pe înțelegeri creative și relativ noi ale „firelor” (ca în firele telegrafice) și fraudei prin cabluri.

În deceniile de după, Congresul a adoptat legi fragmentare pe teme cibernetice cu rezultate mixte. Acest lucru a dus la ca statele să-și ia slăbirea. Lumea securității cibernetice oferă, de asemenea, un exemplu de industrie cu interese profunde care se intersectează, dintre care multe nu sunt diferite de riscurile și punctele oarbe de reglementare cu care se confruntă industria inteligenței artificiale. Una dintre cele mai notabile este confidențialitatea. Preocupările cu privire la confidențialitatea individuală, asociate în mod obișnuit cu rețelele sociale și cu internetul obiectelor (IoT), apar și cu modelele de instruire AI.

Ambele exemple de aici oferă lecții pentru industria AI în creștere rapidă. Mediul cu risc ridicat, cu recompensă mare și cu reglementări scăzute din lumea cripto este plin de fraude și instabilitate. Securitatea cibernetică este o industrie mult mai veche și consacrată, dar mediul de reglementare este încă neregulat, mai ales în ceea ce privește confidențialitatea.

Starea actuală a reglementărilor AI

Deci, pentru a ne face o idee despre care dintre aceste căi de reglementare ar trebui să se aștepte investitorii, să ne uităm la mediul actual de reglementare pentru inteligența artificială.

Începând cu scena internă, ei bine... nu sunt multe, cel puțin legislativ. Pe de altă parte, președintele Joe Biden a fost ocupat să creeze o cale de reglementare printr-un angajament voluntar și, cel mai recent și cel mai important, un ordin executiv de referință și cuprinzător.

La începutul acestui an, Casa Albă a anunțat un angajament voluntar fără caracter obligatoriu „gestionați riscurile prezentate de AI.” Printre semnatarii acestui angajament se numără câteva nume mari precum Amazon (NASDAQ:AMZN), platforme meta (NASDAQ:META), Alfabet (NASDAQ:GOOG, NASDAQ:GOOGL) și OpenAI. Office of Science and Technology Policy (OSTP), un departament din cadrul Casei Albe, a publicat, de asemenea, un „Plan pentru o Declarație a drepturilor AI.” Un alt cadru în special voluntar pentru utilizarea sigură și etică a IA.

Potrivit Casei Albe, „utilizarea sigură și etică a inteligenței artificiale” necesită „testări înainte de implementare” riguroase și este creată cu „consultare din partea diverselor comunități, părți interesate și experți în domeniu pentru a identifica preocupările, riscurile și impacturile potențiale ale sistemului”. Sistemele AI ar trebui să aibă, de asemenea, „evaluări și raportări independente” pentru a se asigura că rămân în siguranță pe termen lung.

Ordinul executiv al AI al lui Biden

În primele ore ale dimineții zilei de 30 octombrie, Casa Albă a anunțat cel mai cuprinzător impuls de reglementare în ceea ce privește AI. Conducerea acestui efort a fost a ordin executiv amplu (și un nou elegant ) care acoperă totul, de la siguranță și securitate la confidențialitate, drepturile civile și multe altele. Acest ordin executiv se bazează pe angajamentul voluntar menționat mai sus și pe Declarația drepturilor AI și se concentrează în mod predominant pe ceea ce fac majoritatea ordinelor executive: mobilizarea numeroaselor departamente și agenții ale filialei executive în acțiune.

Există multe detalii de rezolvat cu privire la modul în care acest ordin executiv va avea impact asupra industriei, dar cele mai importante concluzii pentru investitori sunt:

1. Va dura destul de mult până când autoritățile de reglementare elaborează aceste noi linii directoare și politici.

2. Oricare ar fi reglementările specifice care rezultă din această OE, vor fi construite pe un teren juridic instabil până când Congresul va adopta legi legate de IA. Încă depinde de respectarea voluntară, cu o excepție majoră: Actul de producție pentru apărare (DPA).

Invocarea de către Biden a DPA este pe cât de notabilă, pe atât de confuză. DPA a fost singura lege explicită reală la care face referire EO, cu unele implicații potențial puternice. DPA a fost folosit cel mai recent în contextul pandemiei de Covid-19, dar este asociat de obicei cu producția în timp de război. Biden îl folosește aici într-un context pur de securitate națională:

„... Ordinul va cere ca companiile care dezvoltă orice model de fundație care prezintă un risc grav pentru securitatea națională, securitatea economică națională sau sănătatea și siguranța publică națională trebuie să notifice guvernul federal atunci când antrenează modelul și trebuie să împărtășească rezultatele tuturor teste de siguranță în echipă.”

Nu este clar cine este acoperit de acest „proces de revizuire” susținut de DPA, deoarece alte agenții au responsabilități de reglementare mai specifice. De exemplu, Institutul Național de Standarde și Tehnologie (NIST) va dezvolta standarde de siguranță AI și Departamentul pentru Securitate Internă (DHS) este de a le implementa pentru infrastructura critică. Poate mai important, este nevoie de clarificare cu privire la agenția care va implementa chiar această politică.

Există un candidat notabil pe care DPA l-ar acoperi aproape cu siguranță datorită contractelor sale de apărare existente: Palantir (NYSE:PLTR). Contractantul de apărare din Big Data și din ce în ce mai concentrat pe AI nu este semnatar al Casei Albe. gaj voluntar. Acest lucru ar putea avea mai mult de-a face cu înclinațiile politice conservatoare-libertariene ale președintelui Palantir, Peter Thiel, și cu sprijinul pentru fostul președinte Donald Trump, decât cu o respingere totală a reglementărilor ulterioare. Cu toate acestea, această omisiune este notabilă, deoarece Palantir are planuri mari pentru „luând întreaga piață AI.”

Luat împreună, cadrul de reglementare stabilit de Ordinul executiv al lui Biden este inovator și pregătește Congresul să construiască restul casei de reglementare, ca să spunem așa.

Din păcate, s-ar putea să așteptăm destul de mult timp ca parlamentarii să înceapă „să toarne betonul”.

Dar Congres?

Ordinul executiv al AI al Casei Albe face doar două referiri la Congres, dar ambele sunt solicitări ca Congresul să adopte legi bipartizane privind IA (una era în mod explicit despre adoptarea unei legi privind confidențialitatea).

Potrivit Centrului Brennan pentru Justiție, Congresul a făcut-o aproximativ 60 de facturi legate de IA şezând în diferite comisii.

Cu toate acestea, în momentul scrierii acestui articol, Camera Reprezentanților tocmai a terminat de convenit asupra unui nou Președinte al Camerei și are „pește mai mare de prăjit”, cu încă un termen limită iminent de închidere a guvernului și o bătălie bugetară însoțitoare. Ca să nu mai vorbim de controversele proiecte de lege privind ajutoarele Israelului și Ucrainei și o serie de alte preocupări mai presante.

Mai rămân alte două surse pentru reglementările AI: state individuale ale SUA și actori internaționali. Fostul grup, format din doar o mână din cele 50 de state ale țării, are a trecut un mozaic a legilor relevante, AI și confidențialitatea consumatorilor fiind obiectivul principal. Pe plan internațional, China este lider în construirea unui set complex și avansat a reglementărilor AI. Cadrul de reglementare cuprinzător al Uniunii Europene, intitulat simplu „Act AI”, se așteaptă să fie finalizat și aprobat până la sfârșitul anului.

Reglementările AI și ceea ce ne rezervă viitorul

Deci, unde lasă acest lucru această industrie cu creștere rapidă, potențial extrem de perturbatoare? Va urma calea criptografică către reglementare, care a fost plină de fraudă și instabilitate? Sau calea de securitate cibernetică mai lentă, mai stabilă, dar încă neregulată. Ei bine, deocamdată, cel puțin în Statele Unite, va fi probabil o combinație a celor două.

Inteligența artificială are potențialul perturbator și de a face bani la care industria cripto nu poate decât să viseze. Cu toate acestea, are, de asemenea, potențialul general și utilitatea pe care le oferă industria de securitate cibernetică. Pentru investitori, și pentru a nu suna prea senzaționali aici, pentru umanitate, aceasta este o combinație riscantă.

Există o multitudine de aplicații potențiale ale inteligenței artificiale în lumea reală, de la agricultură la apărare până la finanțare și asistență medicală. Un covor criptografic ar putea frauda investitorii cu banii lor, sau un hacker ar putea fura bani de la o bancă, dar riscurile din accidentele AI sau comportamentul rău intenționat ar putea fi catastrofal.

Ipoteziile pentru ceea ce ar putea merge prost sunt nesfârșite, deoarece AI este încorporată în continuare în viața de zi cu zi. Dar vedem deja cazuri de utilizare rău intenționate pentru AI. Recentul început al războiului Israel-Hamas a fost un val de dezinformare pe platformele de socializare precum X, fost Twitter. Unele dintre imaginile false partajate online sunt generate de AI, adesea create cu instrumente ușor accesibile, cum ar fi Generatorul de imagini Bing. Cu o tehnologie în continuă îmbunătățire, va deveni mai greu să identifici imagini și videoclipuri false.

De asemenea, ne confruntăm cu riscuri care odată se găseau doar în science fiction, cum ar fi „IA necinstiți”. În timp ce un planificator de mese AI sugerând accidental o rețetă pentru clor gazos merită niște chicoteli astăzi, ar fi mult mai puțin amuzant dacă ar fi o IA responsabilă, să zicem, de o fermă automatizată la scară largă care contaminează accidental (sau mai rău, intenționat) o recoltă de legume.

După cum se spune: „Regulile de siguranță sunt scrise în sânge”. Și chiar nu ar trebui să așteptăm până când sângele a fost vărsat înainte de a lua măsuri.

Din punct de vedere legal, există deja un „baros” al unui caz împotriva Google care, potrivit companiei, ar distruge conceptul de IA generativă. Ceea ce are nevoie industria pentru a evita această soartă sunt reglementări clare, aplicabile, care pot proteja atât publicul, cât și firmele de inteligență artificială de furia legală a altora.

De dragul investitorilor și al tuturor, trebuie să existe mai multă supraveghere reglementară asupra industriei inteligenței artificiale înainte ca ceva să meargă groaznic de rău. Noul Ordin Executiv al Casei Albe oferă un cadru foarte cuprinzător pentru numeroase probleme legate de inteligența artificială și este un început bun. Cu toate acestea, fără legi adoptate de Congres care să ofere o bază solidă pe care să se bazeze autorităților de reglementare, vom ajunge cu o mizerie în stil cripto de reglementatori confuzi. Acest lucru va duce doar la confuzia participanților pe piață și a investitorilor confuzi. Și având în vedere că potențialul AI este atât de mare și periculos, nu este ceva ce cineva ar trebui să-și dorească.

Deci nu, reglementările AI nu sunt "dusmanul," așa cum spune un manifest al unui capitalist de risc, dar ele pot acționa ca șine de siguranță care pot ajuta la protejarea industriei și a investitorilor de riscuri enorme.

Ce ar trebui să facă investitorii acum

Fără balustrade clare, investiția în lumea inteligenței artificiale este o afacere riscantă. Investitorii care nu sunt foarte îngrijorați de impactul acestor reglementări abandonate pot face pariuri mai riscante pe multitudinea de startup-uri care încearcă să-l îmbogățească. Sau pe piese consacrate, dar disprețuitoare, precum Palantir.

În caz contrar, investitorilor ar fi mai bine să vadă care companii „joacă mingea” cu angajamentul voluntar al Casei Albe. Sau cei care se adaptează la schimbările de reglementare internaționale care vin din UE și China. Aceste companii probabil fie văd aceste noi reglementări ca pe ceva cu care pot trăi, fie ca pe ceva pe care îl pot folosi în avantajul lor.

Oricum, ciocanul reglementării va cădea la un moment dat sau altul. Cel mai bine ar fi pentru toată lumea, nu doar pentru investitori, ca acesta să cadă înainte ca a doua jumătate a expresiei „mișcă-te repede și spargi lucrurile” să spargă industria AI.

La data publicării, Andrew Bush deținea o poziție LONG în acțiunile GOOGL și AMZN. Opiniile exprimate în acest articol sunt cele ale scriitorului, sub rezerva Ghidurilor de publicare InvestorPlace.com.

Andrew Bush este redactor de știri financiare pentru InvestorPlace și deține două diplome în Afaceri Internaționale. A lucrat în educație, sectorul tehnologic și ca analist de cercetare pentru o firmă de consultanță axată pe securitate națională din DC.

Linkul sursă

#Regulament #Salvați #Umanitatea #AI.. #Salvați #Stocuri

Timestamp-ul:

Mai mult de la CryptoInfonet