Vajame määrust, et päästa inimkond tehisintellektist... ja päästa tehisintellekti varud – CryptoInfoNet

Vajame määrust inimkonna päästmiseks tehisintellektist… ja tehisintellekti varude päästmiseks – CryptoInfoNet

Allikasõlm: 2968903

Tehisintellektina (AI) arendused on tehnoloogia keskpunktis, investorid tunnevad loomulikult õhus võimalust lõhna. Samuti lõhnavad nad värskelt trükitud vormide ja regulaatori bürokraatia järele, mis ootavad oma lõikamist ning takistavad AI-innovatsiooni mürisevat masinat. Kuid neile, kes on mures, et Uncle Sam võib tööstuse uute eeskirjade ja piirangute kaudu purustada, väidan, et siin kehtib täpselt vastupidine: määrused võivad tööstuse enda käest päästa. Ja seda laiendades kaitsevad rohkem valdkonna eeskirju investoreid, mitte ei kahjusta neid. 

Enamikus uutes tööstusharudes on sõna "regulatsioon" tabu. Nüüd pole AI-tööstus just uus. Kaasaegne kontseptsioon ulatub tagasi 1950. aastatesse ning nii era- kui ka avaliku sektori investeeringud sellesse valdkonda on viimase 70 aasta jooksul vähenenud ja kahanenud. 1980. aastatel ja 1990. aastate alguses nähti a buumi ja languse tsükkel tehisintellekti investeeringutes. Jaapani valitsuse investeeringud 80ndatel käivitasid esimese suure kommerts-AI buumi. Kuid 1993. aastaks sulges mulli puhkedes oma uksed üle 300 ettevõtte. Arvutusvõimsuse ja suurte keelemudelite (LLM) kaasaegsed edusammud on aga andnud tööstusele uue elu ning selle potentsiaal ei meelita ligi ainult investoreid, vaid ka reguleerijaid.

AI määrused: huvide ja riskide segadus

Küsimus, milline "AI regulatsioon" peaks olema või üldse võiks olla, on poliitikute, poliitikakujundajate ja eetikute küsimus. Investorid tahavad teada, mida see loomulikult nende portfellidele tähendaks. Millised on suurimad riskid? Ja siin võivad seadused ja määrused pakkuda kaitset ja aidata neid riske maandada.

Suurimad riskid investoritele taanduvad kolmele põhilisele kattuvale probleemile: pettus, intellektuaalomandi kaitse ja privaatsus. Muidugi on raamatutes juba seadused, mis käsitlevad kõiki neid kolme küsimust eraldi. Probleem on aga selles, et AI kujutab endast kõigi kolme riski ainulaadselt keerulist segu, mis ilma selgete raamistike, seaduste ja määrusteta ohustavad kogu tööstuse arengut.

Investorite jaoks on selles nimekirjas kõige pakilisem mure pettus. Peaaegu kõik nõustuvad sellega, et pettuste ennetamine on reguleerimise oluline ja ülioluline roll.

Petturlikud juhtmeahvid: kaks juhtumiuuringut

Kaks juhtumiuuringut näitavad tehisintellekti eeskirjade võimalikku tulevikku, pettuse ohtu ja regulatiivseid ajavahemikke, mida investorid peaksid ootama. Mõlemad näitavad ka seda, kuidas pettus kujundab tulevasi regulatiivseid meetmeid.

Esimene on krüptovaluutade ja mittevahetatavate märkide (NFT-de) maailm. AI-st oluliselt uuem tööstusharu, krüpto on näinud oma õiglast osa buumitest ja langustest ning, mis kõige tähtsam, pettustest. Väärtpaberi- ja börsikomisjon (SEC) ja Federal Trade Commission (FTC) on veetnud tubli kümnendi, püüdes välja mõelda, kuidas sobitada krüpto oma regulatiivsetesse skeemidesse. Kongress pole sellele vaatamata veel ühtegi selgesõnalist krüptoga seotud seadusandlust vastu võtnud mõned katsed.

Selle aja jooksul on tõusnud ja kokku kukkunud mitmed vahetused. NFT-d muutusid 2021. ja 2022. aastal populaarseks kaotavad 95% oma väärtusest, võttes endaga kaasa miljardeid investorite dollareid. Kurikuulus FTX-i kokkuvarisemine ja hiljutine kohtuprotsess Sam Bankman-Friedi poolt pettusega kasutatud rahalisi vahendeid.

Teine siinne juhtumiuuring puudutab küberjulgeolekut. Erinevalt krüptotehnoloogiast on selle valdkonna raamatute kohta üsna palju kehtestatud põhiseadusi. Esimesed kaks "tõelist" küberjulgeoleku seadust olid 1986. aasta arvutipettuste ja kuritarvitamise seadus ja 1984. aasta kõikehõlmava kuritegevuse kontrolli seadus. Mõlemad põhinesid loomingulistel ja suhteliselt uutel arusaamadel "juhtmetest" (nagu telegraafijuhtmetes) ja juhtmepettusest.

Aastakümnete jooksul on Kongress võtnud vastu küberteemalisi seadusi koos erinevad tulemused. Selle tulemusel on osariigid lõtvunud. Küberjulgeoleku maailm on ka näide tööstusest, millel on sügavalt ristuvad huvid, millest paljud ei erine tehisintellektitööstuse ees seisvatest riskidest ja regulatiivsetest pimealadest. Üks tähelepanuväärsemaid on privaatsus. Mure üksikisiku privaatsuse pärast, mida tavaliselt seostatakse sotsiaalmeedia ja asjade internetiga (IoT), kerkivad esile ka tehisintellekti koolitusmudelite puhul.

Mõlemad näited annavad kiiresti kasvavale tehisintellektitööstusele õppetunde. Krüptomaailma kõrge riskiga, kõrge tasu ja madala regulatsiooniga keskkond on täis pettusi ja ebastabiilsust. Küberturvalisus on palju vanem ja väljakujunenud tööstusharu, kuid regulatiivne keskkond on endiselt lünklik, eriti seoses privaatsusega.

AI eeskirjade praegune seis

Seega, et saada aimu, millist neist regulatiivsetest teedest peaksid investorid ootama, vaatame tehisintellekti praegust regulatiivset keskkonda.

Alustades kodumaisest stseenist, noh… seda on vähe, vähemalt seadusandlikult. President Joe Biden seevastu on olnud hõivatud regulatiivse tee loomisega vabatahtliku lubaduse ja, mis kõige tähtsam, maamärgi ja laiaulatusliku täidesaatva korralduse kaudu.

Selle aasta alguses teatas Valge Maja mittesiduvast vabatahtlikust lubadusest "Hallake tehisintellektist tulenevaid riske." Selle lubaduse allakirjutanute hulgas on mõned suured nimed nagu Amazon (NASDAQ:AMZN), metaplatvormid (NASDAQ:META), tähestik (NASDAQ:GOOGNASDAQ:GOOGL) ja OpenAI. Teadus- ja tehnoloogiapoliitika büroo (OSTP), Valge Maja osakond, on avaldanud ka a "AI õiguste eelnõu plaan." Veel üks eriti vabatahtlik raamistik turvaliseks ja eetiliseks tehisintellekti kasutamiseks.

Valge Maja sõnul nõuab "ohutu ja eetiline tehisintellekti kasutamine" ranget "juurutuseelset testimist" ja see luuakse "erinevate kogukondade, sidusrühmade ja valdkonnaekspertidega konsulteerides, et tuvastada süsteemi probleemid, riskid ja võimalikud mõjud." AI-süsteemidel peaks olema ka "sõltumatu hindamine ja aruandlus", et tagada nende pikaajaline ohutus.

Bideni tehisintellekti käskkiri

30. oktoobri varahommikul teatas Valge Maja kõige põhjalikumast regulatiivsest tõukest seoses tehisintellektiga. Selle pingutuse juhtimine oli a laiaulatuslik täidesaatev käskkiri (ja stiilne uus veebisait), mis hõlmab kõike alates ohutusest ja turvalisusest kuni privaatsuse, kodanikuõiguste ja muuni. See täidesaatev korraldus tugineb ülalmainitud vabatahtlikule lubadusele ja tehisintellekti õiguste seadusele ning keskendub valdavalt sellele, mida enamik täitevkorraldusi teeb: täitevvõimu paljude osakondade ja agentuuride mobiliseerimisele.

Selle kohta, kuidas see korraldusmäärus tööstust mõjutab, on palju üksikasju, mida tuleb välja selgitada, kuid investorite jaoks on kõige olulisemad väljavõtted järgmised:

1. Reguleerivatel asutustel kulub nende uute suuniste ja poliitika väljatöötamiseks üsna palju aega.

2. Mis tahes konkreetsed määrused, mis sellest EOst välja tulevad, tuginevad ebakindlale õiguslikule alusele, kuni kongress võtab vastu tehisintellektiga seotud seadused. See sõltub endiselt vabatahtlikust järgimisest, välja arvatud üks suur erand: kaitsetootmise seadus (DPA).

Bideni pöördumine DPA poole on sama tähelepanuväärne kui ka segadust tekitav. Andmekaitseseadus oli ainus tegelik selgesõnaline seadus, millele EO viitab, millel on potentsiaalselt tugev mõju. DPA-d kasutati viimati Covid-19 pandeemia kontekstis, kuid tavaliselt seostatakse seda sõjaaegse tootmisega. Biden kasutab seda siin puhtalt riikliku julgeoleku kontekstis:

„…käskkirjaga nõutakse, et ettevõtted, kes arendavad mis tahes sihtasutuse mudelit, mis kujutab tõsist ohtu riiklikule julgeolekule, riiklikule majandusjulgeolekule või rahvatervisele ja ohutusele, peavad mudeli väljaõppest teavitama föderaalvalitsust ning jagama kõigi meetmete tulemusi. meeskonna ohutustestid.

On ebaselge, keda see DPA toetatud "ülevaatusprotsess" hõlmab, kuna teistel asutustel on spetsiifilisemad regulatiivsed kohustused. Näiteks peab riiklik standardite ja tehnoloogia instituut (NIST) välja töötama tehisintellekti ohutusstandardid ja sisejulgeoleku osakond (DHS) on nende rakendamine kriitilise infrastruktuuri jaoks. Võib-olla veelgi olulisem on selgitada, milline asutus seda poliitikat üldse rakendab.

On üks märkimisväärne kandidaat, mida DPA oma olemasolevate kaitselepingute tõttu peaaegu kindlasti katab: Palantir (NYSE:PLTR). Big Data ja üha enam AI-le keskendunud kaitsetöövõtja ei ole Valge Maja lepingule alla kirjutanud. vabatahtlik lubadus. Sellel võib olla rohkem pistmist Palantiri esimehe Peter Thieli konservatiiv-libertaarne poliitiline kalduvus ja toetus endise presidendi Donald Trumpile kui edasise reguleerimise otsene tagasilükkamine. See väljajätmine on aga märkimisväärne, kuna Palantiril on suured plaanid "Võttes kogu AI turu."

Kokkuvõttes on Bideni täidesaatva korraldusega sätestatud regulatiivne raamistik murranguline ja paneb kongressi üles ehitama ülejäänud reguleerivat maja, kui nii võib öelda.

Kahjuks võime oodata mõnda aega, kuni seadusandjad hakkavad betooni valama.

Aga kongress?

Valge Maja tehisintellekti täidesaatvas korralduses viidatakse Kongressile ainult kahel korral, kuid mõlemad kutsuvad kongressi vastu võtma tehisintellekti käsitlevaid kahepoolseid seadusi (üks puudutas selgesõnaliselt privaatsusseaduse vastuvõtmist).

Brennani justiitskeskuse andmetel on Kongress seda teinud ligikaudu 60 tehisintellektiga seotud arvet istub erinevates komisjonides.

Selle kirjutamise seisuga jõudis Esindajatekoda aga just kokku leppimiseni parlamendi uue spiikri osas ja tal on "suurem kala praadimiseks" ning järjekordne eelseisev valitsuse sulgemise tähtaeg ja sellega kaasnev eelarvelahing. Rääkimata vaidlusalustest Iisraeli ja Ukraina abiarvetest ja paljudest muudest pakilisematest muredest.

See jätab tehisintellekti reguleerimiseks veel kaks allikat: üksikud USA osariigid ja rahvusvahelised osalejad. Endine rühm, mis koosneb vaid käputäiest riigi 50 osariigist, on seda teinud läbis lapitööd AI ja tarbijate privaatsus on esmatähtis. Rahvusvaheliselt on Hiina juhtpositsioonil a keeruline ja täiustatud komplekt tehisintellekti eeskirjadest. Euroopa Liidu kõikehõlmav reguleeriv raamistik, lihtsalt pealkirjaga "AI seadus" peaks valmima ja vastu võetud aasta lõpuks.

AI määrused ja tulevik

Kuhu see siis selle kiiresti kasvava ja potentsiaalselt väga häiriva tööstuse jätab? Kas see võtab krüptotee reguleerimise poole, mis on olnud pettustest ja ebastabiilsusest tulvil? Või aeglasem, stabiilsem, kuid siiski ebaühtlane küberjulgeoleku tee. Noh, praegu, vähemalt USA-s, on see tõenäoliselt nende kahe segu.

AI-l on häiriv ja raha teenimise potentsiaal, millest krüptotööstus võib vaid unistada. Siiski on sellel ka küberjulgeolekutööstuse põhiline potentsiaal ja kasulikkus. Investorite jaoks ja et mitte tunduda liiga sensatsiooniline, inimkonna jaoks on see riskantne kombinatsioon.

Tehisintellektil on lugematu arv potentsiaalseid reaalseid rakendusi, alates põllumajandusest ja lõpetades kaitsega ning lõpetades rahanduse ja tervishoiuga. Krüptovaiba tõmbamine võib investoritelt raha välja petta või häkker võib pangast raha varastada, kuid tehisintellektiga seotud õnnetuste või pahatahtliku käitumise riskid võib olla katastroofiline.

Hüpoteesid selle kohta, mis võib valesti minna, on lõputud, kuna tehisintellekt lisatakse igapäevaellu veelgi. Kuid me näeme juba murettekitavaid AI pahatahtliku kasutamise juhtumeid. Iisraeli-Hamasi sõja hiljutine algus on toonud kaasa valeinformatsiooni tulva sellistel sotsiaalmeedia platvormidel nagu X, endine Twitter. Mõned võrgus jagatavad võltspildid on loodud tehisintellektiga, mis on sageli loodud hõlpsasti juurdepääsetavate tööriistadega, nagu Bingi pildigeneraator. Üha täiustuva tehnoloogiaga muutub võltspiltide ja -videote tuvastamine raskemaks.

Samuti võitleme riskide vastu, mida kunagi leiti ainult ulmekirjanduses, nagu "petturlikud tehisintellektid". Kuigi AI söögiplaneerija kogemata soovitades kloorigaasi retsepti on täna naeru väärt, oleks palju vähem humoorikas, kui tegemist oleks tehisintellektiga, kes vastutaks näiteks suuremahulise automatiseeritud farmi eest, mis kogemata (või mis veelgi hullem, tahtlikult) köögivilja saastaks.

Nagu öeldakse: "Ohutuseeskirjad on verega kirjutatud." Ja me ei peaks tõesti ootama, kuni veri on valatud, enne kui tegutsema hakkame.

Juriidiliselt on Google'i vastu algatatud haamer, mis ettevõtte sõnul hävitada generatiivse AI kontseptsioon. Tööstus vajab selle saatuse vältimiseks selgeid ja jõustatavaid eeskirju, mis võivad kaitsta nii avalikkust kui ka tehisintellekti ettevõtteid üksteise juriidilise viha eest.

Investorite ja kõigi huvides peab tehisintellektitööstuse üle olema rohkem regulatiivset järelevalvet, enne kui midagi kohutavalt valesti läheb. Valge Maja uus täidesaatev korraldus annab väga põhjaliku raamistiku paljudele tehisintellektiga seotud probleemidele ja on hea algus. Kuid ilma kongressi poolt vastu võetud seadusteta, mis annaksid regulaatoritele kindla aluse, millele toetuda, saame lõpuks krüptostiilis segaduses reguleerivate asutuste segaduse. See toob kaasa ainult segaduses turuosalised ja segaduses investorid. Ja kuna AI potentsiaal on nii suur ja ohtlik, ei peaks keegi seda tahtma.

Nii et ei, AI määrused ei ole "vaenlane," nagu ütles üks riskikapitalisti manifest, kuid need võivad toimida turvarööbastena, mis aitavad kaitsta tööstust ja investoreid tohutute riskide eest.

Mida peaksid investorid nüüd tegema

Ilma selgete kaitsepiireteta on tehisintellekti maailma investeerimine riskantne äri. Investorid, kes ei ole väga mures nende kaotatud eeskirjade mõju pärast, võivad teha riskantsemaid panuseid paljudele idufirmadele, kes üritavad seda rikkaks saada. Või väljakujunenud, kuid regulatsioone mahajätvatel näidenditel nagu Palantir.

Vastasel juhul oleks investoritel parem näha, millised ettevõtted Valge Maja vabatahtliku lubadusega "palli mängivad". Või need, mis kohanevad EList ja Hiinast tulevate rahvusvaheliste regulatiivsete muudatustega. Tõenäoliselt peavad need ettevõtted neid uusi eeskirju millekski, millega nad saavad elada, või millekski, mida nad saavad enda huvides ära kasutada.

Mõlemal juhul kukub reguleerimise haamer ühel või teisel hetkel. Kõigile, mitte ainult investoritele, oleks kõige parem, kui see langeks enne, kui väljendi „liigu kiiresti ja lõhu” teine ​​pool AI-tööstuse murrab.

Avaldamise kuupäeval oli Andrew Bushil PIKA positsioon GOOGL-i ja AMZN-i aktsiates. Selles artiklis väljendatud arvamused on kirjaniku omad, lähtudes InvestorPlace.com-i avaldamisjuhistest.

Andrew Bush on InvestorPlace'i finantsuudiste toimetaja ja tal on kaks kraadi rahvusvahelistes suhetes. Ta on töötanud hariduses, tehnoloogiasektoris ja teadusanalüütikuna DC-põhises riiklikule julgeolekule keskenduvas konsultatsioonifirmas.

Allikaside link

#Regulatsioon #Säästa #Inimkond #AI.. #Säästa #Varud

Ajatempel:

Veel alates CryptoInfonet