A szakértők a mesterséges intelligencia miatti kihalásra figyelmeztetnek, ha most nem tesznek lépéseket

A szakértők a mesterséges intelligencia miatti kihalásra figyelmeztetnek, ha most nem tesznek lépéseket

Forrás csomópont: 2688105

Egy másik végzetes nyílt levél arról szól, hogy az AI körbejár. Ezúttal technológiai vezetők, ML fényesek és még néhány híresség is aláírta magát, hogy sürgesse a világot, hogy vegye komolyabban a mesterséges intelligencia által jelentett állítólagos kihalási szintű fenyegetéseket. 

Találóbb kijelentés, a Center for AI Safety (CAIS) üzenete, amelyet olyan személyek írták alá, mint az AI úttörője. Geoffrey Hinton, az OpenAI vezérigazgatója, Sam Altman, a titkosítási guru, Martin Hellman, a Microsoft műszaki igazgatója, Kevin Scott és mások egyetlen kijelentő mondat az apokalipszist megjósolni, ha figyelmen kívül hagyják:

„A mesterséges intelligencia okozta kihalás kockázatának mérséklését globális prioritásként kell kezelni az egyéb társadalmi szintű kockázatok mellett, mint például a világjárványok és a nukleáris háború.” 

Miért ilyen rövid? A cél az volt, hogy „bemutassuk a mesterséges intelligencia-tudósok, technológiai vezetők és professzorok széles és növekvő koalícióját, akik aggódnak a mesterséges intelligencia kihalásának kockázata miatt. Széles körben el kell ismernünk a tétet, hogy hasznos politikai megbeszéléseket folytathassunk” – mondta Dan Hendrycks, a CAIS igazgatója. A regisztráció.

A CAIS nem tesz említést a mesterséges általános intelligenciáról (AGI). az AI kockázatok listája, megjegyezzük. És a jelenlegi generációs modellek, mint például a ChatGPT, nem jelentenek apokaliptikus veszélyt az emberiségre, mondta Hendrycks. A heti figyelmeztetés arról szól, hogy mi jöhet ezután.

"Azok a katasztrofális fenyegetések, amelyekre ez a kijelentés hivatkozik, a jövőbeni fejlett AI-rendszerekhez kapcsolódnak" - vélekedett Hendrycks. Hozzátette, hogy az „apokaliptikus fenyegetettség” szintjének eléréséhez szükséges előrelépések csak két-tíz év múlva lehetnek, de nem több évtized. „Most fel kell készülnünk. Azoknak az AI-rendszereknek azonban, amelyek katasztrofális következményekkel járhatnak, nem kell AGI-nek lenniük” – mondta. 

Mert az emberek amúgy is tökéletesen békések

Egy ilyen fenyegetés a fegyveresítés, vagy az az elképzelés, hogy valaki a jóindulatú mesterséges intelligenciát rendkívül pusztító hatásúvá alakíthatja, például egy gyógyszerkutató robotot vegyi vagy biológiai fegyverek kifejlesztésére, vagy megerősítő tanulást használ a gépi alapú harchoz. Ez azt jelenti, hogy az emberek már eléggé képesek olyan fegyverek gyártására, amelyekkel egy személyt, környéket, várost vagy országot el lehet ütni.

Figyelmeztetésünk szerint az AI-t arra is ki lehet képezni, hogy az egyéni vagy társadalmi értékek figyelembevétele nélkül kövesse céljait. „Elgyengítheti” azokat az embereket, akik végül készségeiket és képességeiket automatizált gépeknek adják át, ami erőkiegyensúlyozatlanságot okoz a mesterséges intelligencia vezérlői és az automatizálás miatt kiszorultak között, vagy dezinformáció terjesztésére szolgálhat, szándékosan vagy másképp.

Ismétlem, az ebben részt vevő mesterséges intelligencia egyikének sem kell általánosnak lennie, és nem túl nagy húzás, ha látjuk, hogy a jelenlegi generációs mesterséges intelligencia olyan kockázatokat jelenthet, amelyek miatt a CAIS aggódik. Lehet, hogy megvan a saját véleménye arról, hogy a szoftver mennyire destruktív vagy hatékony lehet vagy lesz, és mit tud valójában elérni.

A CAIS érvelése szerint kulcsfontosságú, hogy megvizsgáljuk és kezeljük a mesterséges intelligencia már most is érezhető negatív hatásait, és ezeket a meglévő hatásokat előrelátássá alakítsuk. „Miközben a mesterséges intelligencia azonnali kockázataival küzdünk… az AI-iparnak és a világ kormányainak komolyan szembe kell nézniük azzal a kockázattal is, hogy a jövőbeli mesterséges intelligencia veszélyt jelenthet az emberi létre” – mondta Hendrycks. mondott egy nyilatkozatában.

„A világ sikeresen együttműködött az atomháborúval kapcsolatos kockázatok csökkentésében. Ugyanilyen szintű erőfeszítésre van szükség a jövőbeli mesterséges intelligencia-rendszerek által jelentett veszélyek kezeléséhez” – sürgette Hendrycks, a vállalati, tudományos és gondolati vezetők listájával együtt. 

Musk nincs a fedélzeten

Az aláírók között szerepel a Google DeepMind vezető tudósa, Ian Goodfellow, David Chalmers és Daniel Dennett filozófusok, Sam Harris író és blogger, valamint a zenész/Elon Musk volt, Grimes. Ha magáról a férfiról beszélünk, Musk aláírása hiányzik. 

A Twitter vezérigazgatója volt azok között, akik aláírtak egy nyílt levél az Élet Jövője Intézet által tavaly márciusban megjelent, sürgetve a hat hónap szünet a „GPT-4-nél erősebb” AI-rendszerek képzéséről. Nem meglepő módon az OpenAI vezérigazgatójának, Altmannak az aláírása hiányzott hogy egy bizonyos levelet, feltehetően azért, mert közvetlenül a cégét hívta fel. 

Azóta megjelent az OpenAI saját figyelmeztetései a fejlett mesterséges intelligencia jelentette fenyegetésekről, és egy, a Nemzetközi Atomenergia Ügynökséghez hasonló globális felügyelet létrehozását kérte a mesterséges intelligencia használatának szabályozására.

Ez a figyelmeztetés és a hatósági felhívás a történelmileg rossz időzítés esetén ugyanazon a napon érkezett, amikor Altman fenyegetett hogy az OpenAI-t és vele együtt a ChatGPT-t az EU-ból a blokk fölé vonja AI törvény. Az általa támogatott szabályok egy dolog, de Altman azt mondta Brüsszelnek, hogy a mesterséges intelligencia korlátozásával kapcsolatos elképzelésük túl messzire ment a szabályozási hídon, köszönöm szépen. 

EU parlamenti képviselők válaszolt Kim van Sparrentak holland EP-képviselő szerint ha a vállalat nem tud megfelelni az alapvető irányítási és átláthatósági szabályoknak, akkor „rendszereik nem alkalmasak az európai piacra”. 

Felvilágosítást kértünk az OpenAI-tól Altman álláspontjával kapcsolatban, és frissítjük ezt a történetet, ha visszajelzést kapunk. ®

Időbélyeg:

Még több A regisztráció