Boljši način za ocenjevanje LLM - KDnuggets

Boljši način za ocenjevanje LLM – KDnuggets

Izvorno vozlišče: 2989824

Nedavni napredek pri razvoju LLM je populariziral njihovo uporabo za različne naloge NLP, ki so se jih prej lotevali s starejšimi metodami strojnega učenja. Veliki jezikovni modeli so zmožni rešiti različne jezikovne težave, kot so klasifikacija, povzemanje, iskanje informacij, ustvarjanje vsebine, odgovarjanje na vprašanja in vzdrževanje pogovora - vse z uporabo enega samega modela. Toda kako vemo, da dobro opravljajo vse te različne naloge?

Porast magistrskih študijev je razkril nerešen problem: nimamo zanesljivega standarda za njihovo ocenjevanje. Kar otežuje vrednotenje, je, da se uporabljajo za zelo raznolike naloge in nimamo jasne definicije, kaj je dober odgovor za vsak primer uporabe. 

Ta članek obravnava trenutne pristope k ocenjevanju LLM in uvaja novo lestvico najboljših LLM, ki izkorišča človeško ocenjevanje, ki izboljšuje obstoječe tehnike ocenjevanja.

Prva in običajna začetna oblika vrednotenja je zagon modela na več izbranih naborih podatkov in pregled njegove učinkovitosti. HuggingFace je ustvaril Odprite LLM lestvico najboljših kjer se veliki modeli z odprtim dostopom ocenjujejo z uporabo štirih dobro znanih nizov podatkov (AI2 Reasoning Challenge , HellaSwag , MMLU , TruthfulQA). To ustreza samodejnemu ocenjevanju in preverja sposobnost modela, da pridobi dejstva za nekatera specifična vprašanja. 

To je primer vprašanja iz MMLU nabor podatkov.

Zadeva: fakultetna_medicina

Vprašanje: Pričakovani stranski učinek dodajanja kreatina je.

  1. A) mišična oslabelost
  2. B) povečanje telesne mase
  3. C) mišični krči
  4. D) izguba elektrolitov

Odgovor: (B)

Točkovanje modela pri odgovoru na to vrsto vprašanj je pomembna metrika in dobro služi za preverjanje dejstev, vendar ne preizkuša generativne sposobnosti modela. To je verjetno največja pomanjkljivost te metode vrednotenja, saj je ustvarjanje prostega besedila ena najpomembnejših lastnosti LLM.

Zdi se, da znotraj skupnosti obstaja soglasje, da za pravilno ovrednotenje modela potrebujemo človeško vrednotenje. To se običajno naredi s primerjavo odzivov različnih modelov.
 

Boljši način za ocenjevanje LLM
Primerjava dveh hitrih zaključkov v projektu LMSYS – posnetek zaslona avtorja
 

Komentatorji se odločijo, kateri odziv je boljši, kot je prikazano v zgornjem primeru, in včasih kvantificirajo razliko v kakovosti takojšnjih dokončanj. LMSYS Org je ustvaril a leaderboard ki uporablja to vrsto človeškega vrednotenja in primerja 17 različnih modelov, poroča o Elo ocena za vsak model.

Ker je človeško vrednotenje težko meriti, so bila vložena prizadevanja za povečanje in pospešitev procesa vrednotenja, kar je privedlo do zanimivega projekta, imenovanega AlpacaEval. Tu se vsak model primerja z izhodiščem (text-davinci-003, ki ga zagotavlja GPT-4), človeška ocena pa se nadomesti s presojo GPT-4. To je res hitro in razširljivo, toda ali lahko zaupamo tukajšnjemu modelu, da bo opravil točkovanje? Zavedati se moramo pristranskosti modela. Projekt je dejansko pokazal, da lahko GPT-4 daje prednost daljšim odgovorom.

Metode vrednotenja LLM se še naprej razvijajo, saj skupnost umetne inteligence išče preproste, pravične in razširljive pristope. Najnovejši razvoj prihaja iz ekipe Toloka z novim leaderboard za nadaljnji napredek trenutnih standardov ocenjevanja.

Novi leaderboard primerja odzive modela z uporabniškimi pozivi iz resničnega sveta, ki so razvrščeni po uporabnih nalogah NLP, kot je opisano v ta dokument InstructGPT. Prikazuje tudi skupno zmagovalno stopnjo vsakega modela v vseh kategorijah.

 

Boljši način za ocenjevanje LLM
Lestvica Toloka – posnetek zaslona avtorja
 

Vrednotenje, uporabljeno za ta projekt, je podobno tistemu, izvedenemu v AlpacaEval. Rezultati na lestvici najboljših predstavljajo stopnjo zmage zadevnega modela v primerjavi z Guanaco 13B model, ki tukaj služi kot osnovna primerjava. Izbira Guanaco 13B je izboljšava metode AlpacaEval, ki za osnovo uporablja kmalu zastareli model text-davinci-003.

Dejansko vrednotenje opravijo človeški strokovni označevalci na podlagi niza pozivov iz resničnega sveta. Za vsak poziv dobijo opombevalci dve dopolnitvi in ​​jih vprašajo, katero imajo raje. Podrobnosti o metodologiji najdete tukaj

Ta vrsta človeškega vrednotenja je bolj uporabna kot katera koli druga metoda samodejnega vrednotenja in bi morala izboljšati človeško vrednotenje, ki se uporablja za Lestvica najboljših LMSYS. Slaba stran metode LMSYS je, da kdorkoli z povezava lahko sodelujejo pri vrednotenju, kar sproža resna vprašanja o kakovosti na ta način zbranih podatkov. Zaprta množica strokovnih označevalcev ima boljši potencial za zanesljive rezultate, Toloka pa uporablja dodatne tehnike nadzora kakovosti, da zagotovi kakovost podatkov.

V tem članku smo predstavili obetavno novo rešitev za ocenjevanje LLM – Toloka Leaderboard. Pristop je inovativen, združuje prednosti obstoječih metod, doda razdrobljenost, specifično za nalogo, in uporablja zanesljive tehnike človeških opomb za primerjavo modelov.

Raziščite tablo in z nami delite svoja mnenja in predloge za izboljšave.
 
 

Magdalena Konkiewicz je evangelist podatkov pri Toloki, globalnem podjetju, ki podpira hiter in razširljiv razvoj umetne inteligence. Ima magisterij iz umetne inteligence na univerzi v Edinburghu in je delala kot NLP inženirka, razvijalka in podatkovna znanstvenica za podjetja v Evropi in Ameriki. Sodelovala je tudi pri poučevanju in mentoriranju podatkovnih znanstvenikov ter redno prispeva k publikacijam Data Science in Machine Learning.

Časovni žig:

Več od KDnuggets