Ta teden v AI, 18. avgust: OpenAI v finančnih težavah • Stabilnost AI napoveduje StableCode - KDnuggets

Ta teden v AI, 18. avgust: OpenAI v finančnih težavah • Stabilnost AI napoveduje StableCode – KDnuggets

Izvorno vozlišče: 2833080

### ALT ###
Slika, ki jo je ustvaril Editor z Midjourney
 

Dobrodošli v izdaji tega tedna »Ta teden v AI« na KDnuggets. Namen te kurirane tedenske objave je, da ste na tekočem z najbolj prepričljivimi dogodki v hitro napredujočem svetu umetne inteligence. Od prelomnih naslovov, ki oblikujejo naše razumevanje vloge umetne inteligence v družbi, do člankov, ki spodbujajo razmišljanje, pronicljivih učnih virov in izpostavljenih raziskav, ki premikajo meje našega znanja, ta objava ponuja celovit pregled trenutne pokrajine umetne inteligence. Ta tedenska posodobitev je zasnovana tako, da ste na tekočem in obveščeni o tem nenehno razvijajočem se področju. Ostanite z nami in prijetno branje!

 
Razdelek »Naslovi« obravnava najpomembnejše novice in razvoj preteklega tedna na področju umetne inteligence. Informacije segajo od vladnih politik umetne inteligence do tehnološkega napredka in korporativnih inovacij na področju umetne inteligence.

 
💡 ChatGPT v težavah: OpenAI lahko do leta 2024 bankrotira, AI bot podjetje vsak dan stane 700,000 $

OpenAI se sooča s finančnimi težavami zaradi visokih stroškov delovanja ChatGPT in drugih storitev AI. Kljub hitri zgodnji rasti se je baza uporabnikov ChatGPT v zadnjih mesecih zmanjšala. OpenAI se bori za učinkovito monetizacijo svoje tehnologije in ustvarjanje trajnostnega prihodka. Medtem pa še naprej zastrašujoče hitro porablja denar. Z vse močnejšo konkurenco in pomanjkanjem GPE v podjetju, ki ovira razvoj modela, mora OpenAI nujno najti poti do dobičkonosnosti. Če tega ne bo storil, se bo pionirskemu zagonu umetne inteligence morda obetal stečaj.

 
💡 Stability AI napoveduje StableCode, pomočnika za kodiranje AI za razvijalce

Stability AI je izdal StableCode, svoj prvi generativni izdelek AI, optimiziran za razvoj programske opreme. StableCode vključuje več modelov, usposobljenih za več kot 500 milijard žetonov kode, da zagotovi inteligentno samodejno dokončanje, se odzove na navodila v naravnem jeziku in upravlja dolge razpone kode. Medtem ko pogovorni AI že lahko piše kodo, je StableCode namensko zgrajen za povečanje produktivnosti programerjev z razumevanjem strukture kode in odvisnosti. S svojim specializiranim usposabljanjem in modeli, ki lahko obravnavajo dolge kontekste, želi StableCode izboljšati delovne tokove razvijalcev in znižati vstopne ovire za ambiciozne kodirje. Lansiranje predstavlja vdor Stability AI v orodja za kodiranje s pomočjo umetne inteligence sredi vse večje konkurence v vesolju.

 
💡 Predstavljamo Superalignment OpenAI

OpenAI si proaktivno prizadeva za obravnavo morebitnih tveganj zaradi superinteligentne umetne inteligence prek svoje nove ekipe Superalignment, ki za usklajevanje sistemov umetne inteligence uporablja tehnike, kot je okrepljeno učenje iz človeških povratnih informacij. Ključni cilji so razvoj razširljivih metod usposabljanja, ki izkoriščajo druge sisteme umetne inteligence, potrjevanje robustnosti modela in stresno testiranje celotnega cevovoda za poravnavo tudi z namerno neporavnanimi modeli. Na splošno želi OpenAI pokazati, da je strojno učenje mogoče varno izvajati s pionirskimi pristopi za odgovorno usmerjanje superinteligence.

 
💡 Učite se med iskanjem (in brskanjem) z uporabo generativne umetne inteligence

Google napoveduje več posodobitev svojih zmožnosti umetne inteligence Search Engine Generation (SGE), vključno z definicijami lebdenja za teme znanosti/zgodovine, barvno označeno sintakso za pregled kode in zgodnji eksperiment, imenovan »SGE med brskanjem«, ki povzema ključne točke in pomaga uporabnikom raziskujte strani, ko berete dolgo vsebino v spletu. Njihov namen je izboljšati razumevanje zapletenih tem, izboljšati prebavo informacij o kodiranju ter pomagati pri navigaciji in učenju med brskanjem uporabnikov. Posodobitve predstavljajo Googlova nenehna prizadevanja za razvoj svoje izkušnje iskanja z umetno inteligenco na podlagi povratnih informacij uporabnikov, s poudarkom na razumevanju in pridobivanju ključnih podrobnosti iz kompleksne spletne vsebine.

 
💡 Together.ai razširi Llama2 na 32k kontekstno okno

LLaMA-2-7B-32K je odprtokodni jezikovni model z dolgim ​​kontekstom, ki ga je razvil Together Computer in razširja dolžino konteksta Meta LLaMA-2 na 32K žetonov. Izkorišča optimizacije, kot je FlashAttention-2, da omogoči učinkovitejše sklepanje in usposabljanje. Model je bil predhodno usposobljen z uporabo mešanice podatkov, vključno s knjigami, dokumenti in podatki o navodilih. Navedeni so primeri za natančno prilagajanje dolgoročnih nalog zagotavljanja kakovosti in povzemanja. Uporabniki lahko dostopajo do modela prek Hugging Face ali uporabijo OpenChatKit za prilagojeno natančno nastavitev. Kot vsi jezikovni modeli lahko tudi LLaMA-2-7B-32K ustvari pristransko ali nepravilno vsebino, kar zahteva previdnost pri uporabi.

 
Razdelek »Članki« predstavlja vrsto razmislekov o umetni inteligenci. Vsak članek se poglobi v določeno temo in bralcem ponudi vpogled v različne vidike umetne inteligence, vključno z novimi tehnikami, revolucionarnimi pristopi in revolucionarnimi orodji.

 
📰 LangChain Cheat Sheet

Z LangChain lahko razvijalci izdelajo zmogljive aplikacije, ki temeljijo na jezikih z umetno inteligenco, ne da bi znova odkrivali kolo. Njegova sestavljiva struktura omogoča enostavno mešanje in ujemanje komponent, kot so LLM, predloge pozivov, zunanja orodja in pomnilnik. To pospeši izdelavo prototipov in omogoča brezhibno integracijo novih zmogljivosti skozi čas. Ne glede na to, ali želite ustvariti klepetalnega robota, bota za zagotavljanje kakovosti ali večstopenjskega agenta za razmišljanje, LangChain zagotavlja gradnike za hitro sestavljanje napredne umetne inteligence.

 
📰 Kako uporabljati ChatGPT za pretvorbo besedila v PowerPoint predstavitev

Članek opisuje dvostopenjski postopek za uporabo ChatGPT za pretvorbo besedila v predstavitev PowerPoint, pri čemer najprej povzame besedilo v naslove diapozitivov in vsebino, nato pa ustvari kodo Python za pretvorbo povzetka v format PPTX z uporabo knjižnice python-pptx. To omogoča hitro ustvarjanje privlačnih predstavitev iz dolgih besedilnih dokumentov, s čimer premaga dolgočasne ročne napore. Zagotovljena so jasna navodila o oblikovanju pozivov ChatGPT in izvajanju kode, kar ponuja učinkovito avtomatizirano rešitev za predstavitvene potrebe.

 
📰 Odprti izzivi v raziskavah LLM

Članek ponuja pregled 10 ključnih raziskovalnih usmeritev za izboljšanje velikih jezikovnih modelov: zmanjšanje halucinacije, optimizacija dolžine/konstrukcije konteksta, vključevanje multimodalnih podatkov, pospeševanje modelov, oblikovanje novih arhitektur, razvoj alternativ GPU, kot so fotonski čipi, izdelava uporabnih agentov, izboljšanje učenja iz človeške povratne informacije, izboljšanje vmesnikov za klepet in razširitev na neangleške jezike. Navaja ustrezne dokumente na teh področjih, pri čemer opozarja na izzive, kot je predstavljanje človeških preferenc za učenje s krepitvijo in gradnjo modelov za jezike z nizkimi viri. Avtor zaključuje, da medtem ko so nekatera vprašanja, kot je večjezičnost, bolj obvladljiva, bodo druga, kot je arhitektura, zahtevala več prebojev. Na splošno bo tako tehnično kot netehnično strokovno znanje raziskovalcev, podjetij in skupnosti ključnega pomena za pozitivno usmerjanje LLM.

 
📰 Zakaj vam (verjetno) ni treba natančno nastaviti LLM

Članek ponuja pregled 10 ključnih raziskovalnih usmeritev za izboljšanje velikih jezikovnih modelov: zmanjšanje halucinacije, optimizacija dolžine/konstrukcije konteksta, vključevanje multimodalnih podatkov, pospeševanje modelov, oblikovanje novih arhitektur, razvoj alternativ GPU, kot so fotonski čipi, izdelava uporabnih agentov, izboljšanje učenja iz človeške povratne informacije, izboljšanje vmesnikov za klepet in razširitev na neangleške jezike. Navaja ustrezne dokumente na teh področjih, pri čemer opozarja na izzive, kot je predstavljanje človeških preferenc za učenje s krepitvijo in gradnjo modelov za jezike z nizkimi viri. Avtor zaključuje, da medtem ko so nekatera vprašanja, kot je večjezičnost, bolj obvladljiva, bodo druga, kot je arhitektura, zahtevala več prebojev. Na splošno bo tako tehnično kot netehnično strokovno znanje raziskovalcev, podjetij in skupnosti ključnega pomena za pozitivno usmerjanje LLM.

 
📰 Najboljše prakse za uporabo modela OpenAI GPT

Članek opisuje najboljše prakse za pridobivanje visokokakovostnih rezultatov pri uporabi modelov GPT OpenAI, pri čemer temelji na izkušnjah skupnosti. Priporoča zagotavljanje podrobnih pozivov s posebnostmi, kot sta dolžina in osebnost; navodila v več korakih; primeri za posnemanje; reference in citati; čas za kritično razmišljanje; in izvajanje kode za natančnost. Upoštevanje teh nasvetov o navodilih za modele, kot je določanje korakov in oseb, lahko vodi do natančnejših, ustreznih in prilagodljivih rezultatov. Namen navodil je pomagati uporabnikom učinkovito strukturirati pozive, da kar najbolje izkoristijo zmogljive generativne zmogljivosti OpenAI.

 
📰 Glede umetne inteligence se vsi motimo

Avtor trdi, da so trenutne zmogljivosti umetne inteligence podcenjene, pri čemer uporablja primere, kot so ustvarjalnost, iskanje in personalizacija, da bi se zoperstavil običajnim napačnim predstavam. Trdi, da je AI lahko ustvarjalen s ponovnim združevanjem konceptov, ne le z ustvarjanjem naključnih idej; ni le preobremenjen iskalnik, kot je Google; in lahko razvije osebne odnose, ne le generičnih veščin. Čeprav ni prepričan, katere aplikacije se bodo izkazale za najbolj uporabne, avtor raje spodbuja odprtost kot zaničevanje in poudarja, da je najboljši način za določitev potenciala umetne inteligence z nadaljnjim praktičnim raziskovanjem. Ugotavlja, da je naša domišljija o umetni inteligenci omejena in njena uporaba verjetno daleč presega trenutne napovedi.

 
V razdelku »Orodja« so navedene uporabne aplikacije in skripte, ki jih je ustvarila skupnost za tiste, ki se želijo ukvarjati s praktičnimi aplikacijami AI. Tukaj boste našli vrsto vrst orodij, od velikih obsežnih kodnih baz do majhnih nišnih skriptov. Upoštevajte, da se orodja delijo brez odobritve in brez kakršnega koli jamstva. Naredite svojo domačo nalogo na kateri koli programski opremi pred namestitvijo in uporabo!

 
🛠️ MetaGPT: Multi-Agent Framework

MetaGPT vzame enovrstično zahtevo kot vhod in izhode uporabniških zgodb / konkurenčnih analiz / zahtev / podatkovnih struktur / API-jev / dokumentov itd. Notranje MetaGPT vključuje vodje izdelkov / arhitekte / vodje projektov / inženirje. Zagotavlja celoten proces podjetja za programsko opremo skupaj s skrbno orkestriranimi SOP.

 
🛠️ GPT LLM trener

Cilj tega projekta je raziskati eksperimentalni nov cevovod za usposabljanje visoko zmogljivega modela, specifičnega za nalogo. Poskušamo abstrahirati vso zapletenost, tako da je kar se da enostavno iti od ideje do zmogljivega popolnoma usposobljenega modela.

Preprosto vnesite opis svoje naloge in sistem bo ustvaril nabor podatkov iz nič, ga razčlenil v pravo obliko in natančno prilagodil model LLaMA 2 namesto vas.

 
🛠️ DoctorGPT

DoctorGPT je velik jezikovni model, ki lahko opravi izpit za medicinsko licenco v ZDA. To je odprtokodni projekt, katerega naloga je zagotoviti vsakemu svojega zasebnega zdravnika. DoctorGPT je različica Metinega velikega jezikovnega modela Llama2 s 7 milijardami parametrov, ki je bil natančno nastavljen na naboru podatkov o medicinskem dialogu, nato pa še izboljšan z uporabo Reinforcement Learning & Constitutional AI. Ker je model velik samo 3 gigabajte, se prilega kateri koli lokalni napravi, zato za njegovo uporabo ni treba plačati API-ja.

 
 

Časovni žig:

Več od KDnuggets