Mis on superjoondumine ja miks see on oluline? - KDnuggets

Mis on superjoondumine ja miks see on oluline? – KDnuggets

Allikasõlm: 2781724

Mis on superjoondumine ja miks see on oluline?
Pilt autorilt
 

Superintelligentsus võib olla inimkonna ajaloo kõige olulisem tehnoloogiline edusamm. See võib aidata meil toime tulla kõige pakilisemate väljakutsetega, millega inimkond silmitsi seisab. Kuigi see võib tuua kaasa uue edusammude ajastu, kujutab see endast ka teatud loomupäraseid riske, millega tuleb ettevaatlikult ümber käia. Superintelligentsus võib inimkonna jõudu kaotada või isegi viia inimkonna väljasuremiseni, kui seda ei käsitleta õigesti või ei ole õigesti joondatud.

Kuigi superintelligents võib tunduda kaugel, usuvad paljud eksperdid, et see võib lähiaastatel reaalsuseks saada. Võimalike riskide maandamiseks peame looma uued juhtorganid ja tegelema superluure ühtlustamise kriitilise probleemiga. See tähendab, et tuleb tagada, et tehisintellektisüsteemid, mis peagi inimintelligentsi ületavad, oleksid kooskõlas inimeste eesmärkide ja kavatsustega.

Selles ajaveebis õpime tundma Superalignmneti ja tutvume OpenAI lähenemisviisiga superintellekti joondamise põhiliste tehniliste väljakutsete lahendamisel. 

Superalignment tähendab selle tagamist, et ülitehisintellekti (AI) süsteemid, mis ületavad inimintellekti kõigis valdkondades, toimiksid vastavalt inimlikele väärtustele ja eesmärkidele. See on tehisintellekti ohutuse ja juhtimise valdkonnas oluline kontseptsioon, mille eesmärk on käsitleda kõrgelt arenenud tehisintellekti arendamise ja kasutuselevõtuga seotud riske.

As AI systems get more intelligent, it may become more challenging for humans to understand how they make decisions. It can cause problems if the AI acts in ways that go against human values. It’s essential to address this issue to prevent any harmful consequences.

Superalignment tagab, et superintelligentsed AI-süsteemid toimivad viisil, mis on kooskõlas inimlike väärtuste ja kavatsustega. See nõuab inimeste eelistuste täpset määratlemist, tehisintellektisüsteemide kavandamist, mis suudavad neid mõista, ja mehhanismide loomist, mis tagavad, et tehisintellektisüsteemid järgivad neid eesmärke.

Superalignment plays a crucial role in addressing the potential risks associated with superintelligence. Let’s delve into the reasons why we need Superalignment:

  1. Rogue AI stsenaariumide leevendamine: Ülireguleerimine tagab, et superintelligentsed AI-süsteemid ühtivad inimese kavatsustega, vähendades kontrollimatu käitumise ja võimaliku kahju riske.
  2. Inimväärtuste kaitsmine: AI-süsteemide vastavusse viimine inimlike väärtustega hoiab ära konflikte, kus üliintelligentne tehisintellekt võib seada prioriteediks eesmärgid, mis pole kooskõlas ühiskondlike normide ja põhimõtetega.
  3. Soovimatute tagajärgede vältimine: Superalignment uuringud tuvastavad ja leevendavad ettekavatsematuid kahjulikke tagajärgi, mis võivad tekkida arenenud AI-süsteemidest, minimeerides võimalikud kahjulikud mõjud.
  4. Inimese autonoomia tagamine: Superalignment keskendub tehisintellektisüsteemide kujundamisele väärtuslike tööriistadena, mis suurendavad inimese võimeid, säilitavad meie autonoomia ja hoiavad ära liigset sõltuvust tehisintellekti otsuste tegemisest.
  5. Kasuliku AI tuleviku loomine: Superalignment-uuringute eesmärk on luua tulevik, kus üliintelligentsed AI-süsteemid aitavad positiivselt kaasa inimeste heaolule, lahendades globaalseid väljakutseid, vähendades samas riske.

OpenAI is building a human-level automated alignment researcher that will use vast amounts of compute to scale the efforts, and iteratively align superintelligence – Tutvustame Superalignmenti (openai.com).

Esimese automatiseeritud joondamise uurija joondamiseks peab OpenAI tegema järgmist:

  • Töötage välja skaleeritav treeningmeetod: OpenAI saab kasutada tehisintellekti süsteeme, et aidata hinnata teisi tehisintellektisüsteeme keeruliste ülesannete puhul, mida inimestel on raske hinnata.
  • Kinnitage saadud mudel: OpenAI automatiseerib probleemse käitumise ja probleemsete siseosade otsimise.
  • Konkurentsipõhine testimine: Testige tehisintellekti süsteemi, treenides sihilikult valesti joondatud mudeleid, ja veenduge, et kasutatavad meetodid suudavad tuvastada isegi kõige tõsisemad kõrvalekalded.

meeskond

OpenAI moodustab meeskonna, et tulla toime superintellekti ühtlustamise väljakutsega. Järgmise nelja aasta jooksul eraldavad nad 20% oma arvutusressurssidest. Meeskonda juhivad Ilja Sutskever ja Jan Leike ning see hõlmab liikmeid varasematest joondamismeeskondadest ja teistest ettevõtte osakondadest.

OpenAI otsib praegu erakordseid teadlasi ja insenere, et aidata oma missioonile kaasa. Superintelligentsuse joondamise probleem on eelkõige seotud masinõppega. Masinõppe valdkonna eksperdid mängivad lahenduse leidmisel otsustavat rolli, isegi kui nad praegu joondamise kallal ei tööta.

Eesmärgid

OpenAI on seadnud eesmärgiks lahendada superintellekti joondamise tehnilised väljakutsed nelja aasta jooksul. Kuigi see on ambitsioonikas eesmärk ja edu pole garanteeritud, jääb OpenAI optimistlikuks, et keskendunud ja sihikindel pingutus võib viia selle probleemi lahenduseni.

Probleemi lahendamiseks peavad nad esitama masinõppe ja ohutuse kogukonnale veenvaid tõendeid ja argumente. Ülioluline on pakutavate lahenduste kõrge usaldusväärsus. Kui lahendused on ebausaldusväärsed, saab kogukond siiski tulemusi vastavalt planeerimiseks kasutada.

OpenAI’s Superalignment initiative holds great promise in addressing the challenges of superintelligence alignment. With promising ideas emerging from preliminary experiments, the team has access to increasingly useful progress metrics and can leverage existing AI models to study these problems empirically.

It’s important to note that the Superalignment team’s efforts are complemented by OpenAI’s ongoing work to improve the safety of current models, including the widely used ChatGPT. OpenAI remains committed to understanding and mitigating various risks associated with AI, such as misuse, economic disruption, disinformation, bias and discrimination, addiction, and overreliance.

OpenAI eesmärk on sihtotstarbelise uurimistöö, koostöö ja ennetava lähenemisviisi kaudu sillutada teed turvalisemale ja kasulikumale tehisintellekti tulevikule.
 
 
Abid Ali Awan (@1abidaliawan) on sertifitseeritud andmeteadlase professionaal, kes armastab masinõppemudelite loomist. Praegu keskendub ta sisu loomisele ning tehniliste ajaveebide kirjutamisele masinõppe ja andmeteaduse tehnoloogiate kohta. Abid on omandanud magistrikraadi tehnoloogiajuhtimises ja bakalaureusekraadi telekommunikatsioonitehnikas. Tema visioon on luua graafilise närvivõrgu abil tehisintellekti toode vaimuhaigustega võitlevatele õpilastele.
 

Ajatempel:

Veel alates KDnuggets