Experții avertizează despre dispariția din AI dacă nu se iau măsuri acum

Experții avertizează despre dispariția din AI dacă nu se iau măsuri acum

Nodul sursă: 2688105

Există o altă scrisoare deschisă despre AI care face circulația. De data aceasta, o gamă largă de lideri ai tehnologiei, luminarii ML și chiar și câteva celebrități s-au semnat pentru a îndemna lumea să ia mai în serios presupusele amenințări la nivel de extincție reprezentate de inteligența artificială. 

Mai potrivit o declarație, mesajul Centrului pentru Siguranța Intelegenției Artificiale (CAIS) semnat de persoane precum pionierul AI Geoffrey Hinton, CEO-ul OpenAI Sam Altman, guru al criptării Martin Hellman, CTO Microsoft Kevin Scott și alții este un propoziție declarativă unică prezicerea apocalipsei dacă nu este luată în seamă:

„Atenuarea riscului de dispariție din cauza IA ar trebui să fie o prioritate globală alături de alte riscuri la scară societală, cum ar fi pandemiile și războiul nuclear.” 

De ce atât de scurt? Scopul a fost „de a demonstra coaliția largă și în creștere de oameni de știință AI, lideri tehnologici și profesori care sunt preocupați de riscurile de extincție a AI. Avem nevoie de o recunoaștere pe scară largă a mizelor pentru a putea avea discuții utile de politică”, a declarat directorul CAIS, Dan Hendrycks. Registrul.

CAIS nu menționează inteligența generală artificială (AGI) în documentul său lista riscurilor AI, noi notam. Iar modelele din generația actuală, cum ar fi ChatGPT, nu reprezintă o amenințare apocaliptică pentru umanitate, ne-a spus Hendrycks. Avertismentul din această săptămână este despre ceea ce poate urma.

„Tipurile de amenințări catastrofale la care se referă această declarație sunt asociate cu viitoarele sisteme AI avansate”, a opinat Hendrycks. El a adăugat că progresele necesare pentru a atinge nivelul de „amenințare apocaliptică” ar putea fi în doar doi până la 10 ani, nu la câteva decenii. „Trebuie să ne pregătim acum. Cu toate acestea, sistemele AI care ar putea provoca rezultate catastrofale nu trebuie să fie AGI”, a spus el. 

Pentru că oamenii sunt oricum perfect pașnici

Un astfel de amenințare este armonizarea sau ideea că cineva ar putea reutiliza IA binevoitoare pentru a fi extrem de distructivă, cum ar fi utilizarea unui robot de descoperire a medicamentelor pentru a dezvolta arme chimice sau biologice sau folosirea învățării de întărire pentru luptă bazată pe mașini. Acestea fiind spuse, oamenii sunt deja capabili să producă astfel de arme, care pot distruge o persoană, un cartier, un oraș sau o țară.

AI ar putea fi, de asemenea, antrenat pentru a-și atinge obiectivele fără a ține cont de valorile individuale sau societale, suntem avertizați. Ar putea „slăbi” oamenii care ajung să cedeze abilități și abilități mașinilor automate, provocând un dezechilibru de putere între controlerele AI și cei înlocuiți de automatizare sau să fie folosiți pentru a răspândi dezinformarea, intenționat sau in caz contrar.

Din nou, niciuna dintre IA implicată în asta nu trebuie să fie generală și nu este prea greu să vedem potențialul AI din generația actuală de a evolua pentru a prezenta tipurile de riscuri de care CAIS este îngrijorat. Este posibil să aveți propriile opinii despre cât de cu adevărat distructiv sau capabil ar putea sau va fi software-ul și ce ar putea realiza de fapt.

Este esențial, spune argumentul CAIS, să examinăm și să abordăm impacturile negative ale IA care sunt deja resimțite și să transformăm acele impacturi existente în previziune. „În timp ce ne confruntăm cu riscurile imediate ale AI... industria AI și guvernele din întreaga lume trebuie să se confrunte serios cu riscul ca viitoarele IA să reprezinte o amenințare pentru existența umană”, Hendrycks. a spus într-o declarație.

„Lumea a cooperat cu succes pentru a atenua riscurile legate de războiul nuclear. Este nevoie de același nivel de efort pentru a aborda pericolele prezentate de viitoarele sisteme AI”, a îndemnat Hendrycks, cu o listă de lideri corporativi, academici și de gândire susținându-l. 

Musk nu este la bord

Alți semnatari includ principalul om de știință Google DeepMind, Ian Goodfellow, filozofii David Chalmers și Daniel Dennett, autorul și bloggerul Sam Harris și fostul muzician/Elon Musk, Grimes. Apropo de bărbatul însuși, semnătura lui Musk lipsește. 

CEO-ul Twitter a fost dintre cei care au semnat an scrisoare deschisă publicat de Institutul Viitorul Vieții în martie trecut îndemnând a pauză de șase luni privind formarea sistemelor AI „mai puternice decât GPT-4”. Deloc surprinzător, semnătura CEO-ului OpenAI, Altman, a lipsit acea o anumită scrisoare, aparent pentru că a chemat compania lui direct. 

OpenAI a lansat de atunci propriile sale avertismente despre amenințările reprezentate de IA avansată și a cerut înființarea unui supraveghetor global asemănător cu Agenția Internațională pentru Energie Atomică pentru a reglementa utilizarea IA.

Acest avertisment și apel de reglementare, într-un caz de sincronizare istorică slabă, a venit în aceeași zi, Altman amenințat pentru a retrage OpenAI și ChatGPT cu el, din UE peste cel al blocului AI Act. Regulile pe care le susține sunt un lucru, dar Altman a spus Bruxelles-ului că ideea lor de restricție AI este o punte de reglementare prea departe, mulțumesc foarte mult. 

parlamentarii UE răspuns spunând că nu vor fi dictați de OpenAI și că, dacă compania nu poate respecta regulile de bază de guvernanță și transparență, „sistemele lor nu sunt potrivite pentru piața europeană”, a afirmat europarlamentarul olandez Kim van Sparrentak. 

Am cerut lui OpenAI clarificări cu privire la poziția (pozițiile) lui Altman și vom actualiza această poveste dacă vom primi răspunsuri. ®

Timestamp-ul:

Mai mult de la Registrul