Szabályozásra van szükségünk, hogy megmentsük az emberiséget a mesterséges intelligenciától... és megmenthessük az AI-készleteket - CryptoInfoNet

Szabályozásra van szükségünk ahhoz, hogy megmentsük az emberiséget az AI-tól… és megmenthessük az AI-készleteket – CryptoInfoNet

Forrás csomópont: 2968903

Mint mesterséges intelligencia (AI) a fejlesztések a technológia középpontjába kerültek, a befektetők természetesen érezhetik a lehetőségeket a levegőben. Érzik a frissen nyomtatott formákat és a szabályozó bürokráciáját is, amelyek csak arra várnak, hogy megtegyék a vágást, és akadályozzák az AI innováció üvöltő gépezetét. De azoknak, akik aggódnak amiatt, hogy Uncle Sam összetörheti az ipart új szabályozások és korlátozások révén, azt állítom, hogy itt pont az ellenkezője igaz: a szabályozás megmentheti az ipart önmagától. És ennek kiterjesztésével az iparágra vonatkozó több szabályozás védi, nem pedig árt a befektetőknek. 

A legtöbb új iparágban a „szabályozás” szó tabu. Nos, az AI-ipar nem egészen új. A modern koncepció az 1950-es évekre nyúlik vissza, és az elmúlt 70 év során mind a magán-, mind az állami beruházások gyarapodtak és hanyatlottak. Az 1980-as években és az 1990-es évek elején a bumm-bust ciklus mesterséges intelligencia befektetésekben. A 80-as években a japán kormány beruházásai elindították az első nagy kereskedelmi AI fellendülést. 1993-ra azonban „több mint 300 vállalat zárta be kapuit”, amikor kipattant a buborék. A számítási teljesítmény és a nagy nyelvi modellek (LLM) modern fejlődése azonban új életet adott az iparágnak, és a benne rejlő lehetőségek nemcsak a befektetőket vonzzák, hanem a szabályozó hatóságokat is.

AI-szabályozás: Az érdekek és kockázatok zűrzavara

A politikusok, a döntéshozók és az etikusok kérdése, hogy mi legyen, vagy egyáltalán mi lehet az „AI-szabályozás”. A befektetők természetesen azt szeretnék tudni, hogy ez mit jelentene portfóliójuk számára. Melyek a legnagyobb kockázatok? A törvények és rendeletek itt nyújthatnak védelmet, és segíthetnek kezelni ezeket a kockázatokat.

A befektetőket fenyegető legnagyobb kockázatok három alapvető, egymást átfedő aggályra vezethetők vissza: csalás, szellemi tulajdon védelme és magánélet. Természetesen a könyvekben már vannak olyan törvények, amelyek mindhárom kérdéssel külön-külön foglalkoznak. A probléma azonban az, hogy a mesterséges intelligencia mindhárom kockázat egyedülállóan bonyolult keveréke, amely világos keretek, törvények és szabályozások nélkül az egész iparág fejlődését fenyegeti.

A befektetők számára ezen a listán a legsürgetőbb aggodalom a csalás. Szinte mindenki egyetért azzal, hogy a csalásmegelőzés a szabályozás fontos és létfontosságú szerepe.

Csalós drótlovagló majmok: Két esettanulmány

Két esettanulmány mutatja be a mesterséges intelligencia szabályozásának lehetséges jövőjét, a csalás kockázatát és a szabályozási időkereteket, amelyekre a befektetőknek számítaniuk kell. Mindkettő azt is megtestesíti, hogy a csalás hogyan fogja alakítani az elkövetkező szabályozási intézkedéseket.

Az első a kriptovaluták és a nem helyettesíthető tokenek (NFT-k) világa. Az AI-nál lényegesen újabb iparág, a kriptográfia méltányos hányadát tapasztalta fellendülésben és zuhanásban, és ami a legfontosabb, csalásban. Az Értékpapír- és Tőzsdefelügyelet (SEC) és a Szövetségi Kereskedelmi Bizottság (FTC) bő évtizedet töltöttek azzal, hogy kitalálják, hogyan illeszthetik be a kriptográfiai rendszert a szabályozási rendszereikbe. A Kongresszus ennek ellenére még nem fogadott el semmilyen kifejezett kriptográfiai jogszabályt néhány próbálkozás.

Ez idő alatt számos tőzsde emelkedett és omlott össze. Az NFT-k a 2021-ben és 2022-ben divatossá váltak elveszítik értékük 95%-át, befektetők dollármilliárdjait vitte le magukkal. Hírhedten az FTX összeomlása és a legutóbbi tárgyalás Sam Bankman-Fried több milliárd dollárnyi csalárd pénzeszközt vont be.

A második esettanulmány itt a kiberbiztonságé. A kriptotechnológiával ellentétben az ipar számára jó néhány alapvető törvény létezik a könyvekben. Az első két „igazi” kiberbiztonsági törvény az 1986-os számítógépes csalásról és visszaélésről szóló törvény, valamint az 1984-es átfogó bűnözés-ellenőrzési törvény volt. Mindkettő a „vezetékek” (mint a távíróvezetékek) és a vezetékes csalás kreatív és viszonylag új értelmezésén alapult.

Az azóta eltelt évtizedekben a Kongresszus részleges törvényeket fogadott el a számítógépes témákról vegyes eredmények. Ez azt eredményezte, hogy az államok felkapták a lazaságot. A kiberbiztonsági világ egy olyan iparágra is példát mutat, ahol az érdekek mélyen keresztezik egymást, amelyek közül sok nem különbözik a mesterséges intelligencia ipar előtt álló kockázatoktól és szabályozási vakfoltoktól. Az egyik legfigyelemreméltóbb a magánélet. Az egyéni adatvédelemmel kapcsolatos aggodalmak, amelyek általában a közösségi médiához és a dolgok internetéhez (IoT) kapcsolódnak, szintén felmerülnek az AI-képzési modelleknél.

Mindkét példa tanulságokkal szolgál a gyorsan növekvő AI-ipar számára. A kriptográfiai világ magas kockázatú, magas jövedelmű és alacsony szabályozási környezete tele van csalással és instabilitással. A kiberbiztonság sokkal régebbi és bejáratott iparág, de a szabályozási környezet még mindig hézagos, különösen az adatvédelem tekintetében.

Az AI-szabályozás jelenlegi állása

Tehát, hogy képet kapjunk arról, hogy ezek közül a szabályozási utak közül melyikre számíthatnak a befektetők, nézzük meg a mesterséges intelligencia jelenlegi szabályozási környezetét.

Kezdve a hazai színtérrel, hát… nem sok, legalábbis jogszabályilag. Joe Biden elnök viszont azzal volt elfoglalva, hogy egy önkéntes ígéret és – ami a legutóbbi és ami a legfontosabb – egy mérföldkőnek számító és elsöprő végrehajtó rendelet révén egy szabályozási utat alakítson ki.

Az év elején a Fehér Ház bejelentette, hogy nem kötelező erejű önkéntes ígéretet tett "kezelje az AI által jelentett kockázatokat." Az ígéret aláírói között van néhány nagy név, mint például az Amazon (NASDAQ:AMZN), Meta Platforms (NASDAQ:META), ábécé (NASDAQ:GOOG, NASDAQ:GOOGL) és az OpenAI. A Tudományos és Technológiai Politikai Hivatal (OSTP), a Fehér Ház egyik osztálya szintén közzétett egy "Az AI Bill of Rights tervezete." Egy másik, kifejezetten önkéntes keretrendszer a mesterséges intelligencia biztonságos és etikus használatához.

A Fehér Ház szerint a „biztonságos és etikus mesterségesintelligencia-használat” szigorú „telepítés előtti tesztelést” igényel, és „különböző közösségek, érdekelt felek és területi szakértők konzultációjával jön létre a rendszer aggályainak, kockázatainak és lehetséges hatásainak azonosítása érdekében”. A mesterséges intelligencia rendszereknek „független értékeléssel és jelentéssel” is kell rendelkezniük annak érdekében, hogy hosszú távon biztonságban maradjanak.

Biden AI végrehajtó parancsa

Október 30-án a hajnali órákban a Fehér Ház bejelentette a legátfogóbb szabályozási intézkedést az AI-val kapcsolatban. Ennek az erőfeszítésnek a hajtóereje a elsöprő végrehajtó parancs (és egy elegáns új ). Ez a végrehajtási rendelet a fent említett önkéntes ígéretre és az AI Bill of Rights-ra épül, és túlnyomórészt arra összpontosít, amit a legtöbb végrehajtó parancs tesz: a végrehajtó ág számos osztályának és ügynökségének mozgósítására.

Sok részletet kell tisztázni azzal kapcsolatban, hogy ez a végrehajtási rendelet milyen hatással lesz az iparágra, de a befektetők számára a legjelentősebb megjegyzések a következők:

1. Elég sokáig tart, amíg a szabályozók kidolgozzák ezeket az új iránymutatásokat és politikákat.

2. Bármilyen konkrét szabályozás is származzon ebből az EO-ból, az ingatag jogi alapokra épül, amíg a Kongresszus el nem fogadja az AI-val kapcsolatos törvényeket. Ez továbbra is az önkéntes megfeleléstől függ, egyetlen fő kivétellel: a védelmi termelésről szóló törvény (DPA).

Biden felhívása az adatvédelmi hatósághoz éppoly figyelemre méltó, mint amennyire zavarba ejtő. Az adatvédelmi törvény volt az egyetlen tényleges, kifejezett törvény, amelyre az EO hivatkozik, és amely potenciálisan erőteljes következményekkel járt. A DPA-t legutóbb a Covid-19 világjárvány kapcsán használták, de jellemzően háborús termeléshez kapcsolják. Biden itt pusztán nemzetbiztonsági kontextusban használja:

„…a rendelet előírja, hogy a nemzetbiztonságra, a nemzetgazdasági biztonságra vagy a nemzeti közegészségügyre és biztonságra komoly kockázatot jelentő alapítványi modellt kidolgozó vállalatoknak értesíteniük kell a szövetségi kormányt a modell kiképzésekor, és meg kell osztaniuk az összes alapítási modell eredményeit. csapatbiztonsági tesztek.”

Nem világos, hogy kire vonatkozik ez a DPA által támogatott „felülvizsgálati folyamat”, mivel más ügynökségeknek konkrétabb szabályozási felelősségeik vannak. Például a Nemzeti Szabványügyi és Technológiai Intézet (NIST) AI biztonsági szabványokat dolgoz ki, a Belbiztonsági Minisztérium pedigDHS) valósítja meg ezeket a kritikus infrastruktúra számára. Talán még fontosabb, hogy tisztázni kell, hogy melyik ügynökség fogja egyáltalán végrehajtani ezt a politikát.

Van egy figyelemre méltó jelölt, akit a DPA szinte biztosan fedezne a meglévő védelmi szerződései miatt: Palantir (NYSE:PLTR). A Big Data és az egyre inkább a mesterséges intelligenciára összpontosító védelmi vállalkozó nem aláírta a Fehér Ház önkéntes zálog. Ennek több köze lehet a Palantir elnökének, Peter Thielnek a konzervatív-libertárius politikai beállítottságához és Donald Trump volt elnök támogatásához, mint a további szabályozás teljes elutasításához. Ez a mulasztás azonban figyelemre méltó, mivel Palantirnak nagy tervei vannak „elfoglalva az egész AI piacot.”

Összességében a Biden végrehajtási rendeletében meghatározott szabályozási keret úttörő, és úgyszólván feldobja a Kongresszust, hogy felépítse a szabályozóház többi részét.

Sajnos lehet, hogy sokáig várunk arra, hogy a törvényhozók elkezdjék „betonozni”.

Mi a helyzet a Kongresszussal?

A Fehér Ház mesterséges intelligencia végrehajtási rendelete csak két hivatkozást tesz a Kongresszusra, de mindkettő felszólítja a Kongresszust, hogy fogadjon el kétpárti törvényeket az MI-ről (az egyik kifejezetten egy adatvédelmi törvény elfogadásáról szólt).

A Brennan Center for Justice szerint a Kongresszus megtette nagyjából 60 mesterséges intelligenciával kapcsolatos számla különböző bizottságokban ül.

A jelen pillanatban azonban a Képviselőház éppen befejezte az új házelnökről szóló megállapodást, és „nagyobb halat süthet”, egy újabb küszöbön álló kormányzati leállási határidő és az ezzel járó költségvetési csata fenyeget. Nem is beszélve a vitás izraeli és ukrajnai segélyszámlákról és egy sor más sürgető aggályról.

Így két másik forrás marad a mesterséges intelligencia szabályozására: egyes amerikai államok és nemzetközi szereplők. Az előbbi csoport, amely az ország 50 államából csak néhányból áll, rendelkezik átment egy foltvarráson vonatkozó jogszabályokat, a mesterséges intelligencia és a fogyasztói adatvédelem áll az elsődleges középpontban. Nemzetközi szinten Kína élen jár az a összetett és haladó készlet az AI-szabályozásból. Az Európai Unió átfogó szabályozási kerete, egyszerűen a címe „AI törvény” várhatóan az év végéig véglegesítik és elfogadják.

A mesterséges intelligencia szabályozása és mit hoz a jövő

Tehát hová kerül ez a gyorsan növekvő, potenciálisan rendkívül bomlasztó iparág? Vajon a kriptográfiai úton halad a szabályozás felé, amely csalástól és instabilitástól hemzseg? Vagy a lassabb, stabilabb, de még mindig foltos kiberbiztonsági út. Nos, egyelőre, legalábbis az Egyesült Államokban, valószínűleg a kettő keveréke lesz.

A mesterséges intelligencia rendelkezik azzal a bomlasztó és pénzkereseti lehetőséggel, amelyről a kriptoipar csak álmodhat. Mindazonáltal megvan a kiberbiztonsági ágazat által kínált általános potenciál és hasznosság is. A befektetők számára, és hogy ne tűnjön túl szenzációhajhásznak, az emberiség számára ez egy kockázatos kombináció.

A mesterséges intelligencia számtalan lehetséges valós alkalmazását kínálja, a mezőgazdaságtól a védelemen át a pénzügyekig és az egészségügyig. A kripto szőnyeg lehúzása ellophatja a befektetők pénzét, vagy egy hacker pénzt lophat el egy bankból, de az AI-balesetek vagy a rosszindulatú viselkedés kockázatai katasztrofális lehet.

A hipotetikus kérdések arra vonatkozóan, hogy mi történhet rosszul, végtelenek, mivel a mesterséges intelligencia egyre inkább beépül a mindennapi életbe. De már most is látunk aggasztó rosszindulatú AI-használati eseteket. Az Izrael-Hamász háború közelmúltbeli kezdete téves információk özönét jelentette az olyan közösségi médiaplatformokon, mint az X, korábban Twitter. Az online megosztott hamis képek egy része mesterséges intelligencia által generált, gyakran könnyen hozzáférhető eszközökkel, például a Bing képgenerátorával. A folyamatosan fejlődő technológia révén egyre nehezebb lesz azonosítani a hamis képeket és videókat.

Olyan kockázatokkal is szembeszállunk, amelyek egykor csak a sci-fiben voltak megtalálhatók, mint például a „gazember mesterséges intelligencia”. Miközben AI étkezéstervező véletlenül a klórgáz receptjét javasolta megér egy kis kuncogást ma, sokkal kevésbé lenne humoros, ha egy mesterséges intelligencia lenne, aki mondjuk egy nagyszabású automatizált farmért véletlenül (vagy ami még rosszabb, szándékosan) megfertőzne egy zöldségtermést.

Ahogy a mondás tartja: "A biztonsági előírások vérrel vannak írva." És tényleg nem kellene megvárnunk a vér kiontását, mielőtt intézkednénk.

Jogilag már van egy olyan ügy a Google ellen, amely a cég szerint rombolja le a generatív AI koncepcióját. Az iparágnak egyértelmű, végrehajtható szabályozásra van szüksége, hogy elkerülje ezt a sorsot, amelyek megvédhetik a közvéleményt és az AI-cégeket egymás jogi haragjától.

A befektetők és mindenki érdekében fokozottabb szabályozói felügyeletre van szükség a mesterséges intelligencia ipar felett, mielőtt valami szörnyű baj történne. A Fehér Ház új végrehajtó rendelete nagyon átfogó keretet biztosít számos mesterséges intelligenciával kapcsolatos kérdésben, és jó kezdet. Mindazonáltal, ha a Kongresszus által elfogadott törvények nem biztosítanak szilárd alapot a szabályozók számára, amelyekre építhetnek, akkor a kriptográfiai jellegű összezavarodott szabályozók zűrzavarához fogunk vezetni. Ez csak összezavarodott piaci szereplőket és befektetőket fog okozni. És mivel a mesterséges intelligencia olyan nagyszerű és veszélyes, ezt senki sem akarhatja.

Tehát nem, az AI-szabályok nem "az ellenség," ahogy az egyik kockázati tőkés kiáltványa fogalmazott, de biztonsági korlátként működhetnek, amely segíthet megvédeni az ipart és a befektetőket a hatalmas kockázatoktól.

Mit tegyenek a befektetők most

Világos védőkorlátok nélkül a mesterséges intelligencia világába való befektetés kockázatos üzlet. Azok a befektetők, akiket nem nagyon aggaszt ezeknek az összevont szabályozásoknak a hatása, kockázatosabb fogadásokat köthetnek azon startupok sokaságára, amelyek megpróbálják meggazdagodni. Vagy olyan bevett, de szabályozást elutasító színdarabokon, mint a Palantir.

Ellenkező esetben a befektetők jobban járnának, ha látnák, mely vállalatok „játszanak labdát” a Fehér Ház önkéntes ígéretével. Vagy azok, amelyek alkalmazkodnak az EU-ból és Kínából érkező nemzetközi szabályozási változásokhoz. Ezek a vállalatok valószínűleg vagy olyannak tekintik ezeket az új szabályozásokat, amelyekkel együtt tudnak élni, vagy olyasvalaminek, amit előnyükre fordíthatnak.

Akárhogy is, a szabályozás kalapácsa valamikor le fog esni. Mindenki számára az lenne a legjobb, nem csak a befektetőknek, ha ez leesne, mielőtt a „gyorsan lépj és törd meg a dolgokat” kifejezés második fele megtörné az AI-ipart.

A megjelenés időpontjában Andrew Bush LONG pozíciót töltött be a GOOGL és AMZN részvényekben. Az ebben a cikkben kifejtett vélemények az íróé, az InvestorPlace.com közzétételi irányelvei szerint.

Andrew Bush az InvestorPlace pénzügyi hírszerkesztője, és két diplomával rendelkezik nemzetközi ügyekben. Dolgozott az oktatásban, a technológiai szektorban és kutatási elemzőként egy DC-alapú nemzetbiztonsági tanácsadó cégnél.

Forrás link

#Szabályozás #Mentsd #Emberiség #AI.. #Mentsd #Részvényeket

Időbélyeg:

Még több CryptoInfonet