Ένας καλύτερος τρόπος για την αξιολόγηση των LLMs - KDnuggets

Ένας καλύτερος τρόπος για την αξιολόγηση των LLMs – KDnuggets

Κόμβος πηγής: 2989824

Οι πρόσφατες πρόοδοι στην ανάπτυξη των LLM έχουν διαδώσει τη χρήση τους για διάφορες εργασίες NLP που προηγουμένως αντιμετωπίζονταν χρησιμοποιώντας παλαιότερες μεθόδους μηχανικής μάθησης. Τα μεγάλα γλωσσικά μοντέλα είναι ικανά να λύσουν μια ποικιλία γλωσσικών προβλημάτων, όπως ταξινόμηση, σύνοψη, ανάκτηση πληροφοριών, δημιουργία περιεχομένου, απάντηση ερωτήσεων και διατήρηση μιας συνομιλίας — όλα χρησιμοποιώντας ένα μόνο μοντέλο. Αλλά πώς ξέρουμε ότι κάνουν καλή δουλειά σε όλες αυτές τις διαφορετικές εργασίες;

Η άνοδος των LLMs έφερε στο φως ένα άλυτο πρόβλημα: δεν έχουμε αξιόπιστο πρότυπο για την αξιολόγησή τους. Αυτό που κάνει την αξιολόγηση πιο δύσκολη είναι ότι χρησιμοποιούνται για εξαιρετικά διαφορετικές εργασίες και δεν έχουμε σαφή ορισμό για το ποια είναι η καλή απάντηση για κάθε περίπτωση χρήσης. 

Αυτό το άρθρο εξετάζει τις τρέχουσες προσεγγίσεις για την αξιολόγηση των LLM και εισάγει έναν νέο πίνακα κατάταξης LLM που αξιοποιεί την ανθρώπινη αξιολόγηση που βελτιώνει τις υπάρχουσες τεχνικές αξιολόγησης.

Η πρώτη και συνήθης αρχική μορφή αξιολόγησης είναι η εκτέλεση του μοντέλου σε πολλά επιμελημένα σύνολα δεδομένων και η εξέταση της απόδοσής του. Το HuggingFace δημιούργησε ένα Ανοίξτε το Leaderboard LLM όπου τα μεγάλα μοντέλα ανοιχτής πρόσβασης αξιολογούνται χρησιμοποιώντας τέσσερα γνωστά σύνολα δεδομένων (AI2 Reasoning Challenge , HellaSwag , MMLU , TruthfulQA). Αυτό αντιστοιχεί στην αυτόματη αξιολόγηση και ελέγχει την ικανότητα του μοντέλου να λαμβάνει τα δεδομένα για ορισμένες συγκεκριμένες ερωτήσεις. 

Αυτό είναι ένα παράδειγμα ερώτησης από το MMLU σύνολο δεδομένων

Θέμα: κολέγιο_ιατρική

Ερώτηση: Μια αναμενόμενη παρενέργεια της λήψης συμπληρωμάτων κρεατίνης είναι.

  1. Α) μυϊκή αδυναμία
  2. Β) αύξηση μάζας σώματος
  3. Γ) μυϊκές κράμπες
  4. Δ) απώλεια ηλεκτρολυτών

Απάντηση: (Β)

Η βαθμολόγηση του μοντέλου για την απάντηση αυτού του τύπου ερωτήσεων είναι μια σημαντική μέτρηση και χρησιμεύει καλά για τον έλεγχο των γεγονότων, αλλά δεν δοκιμάζει τη παραγωγική ικανότητα του μοντέλου. Αυτό είναι ίσως το μεγαλύτερο μειονέκτημα αυτής της μεθόδου αξιολόγησης, επειδή η δημιουργία ελεύθερου κειμένου είναι ένα από τα πιο σημαντικά χαρακτηριστικά των LLM.

Φαίνεται ότι υπάρχει συναίνεση μέσα στην κοινότητα ότι για να αξιολογήσουμε σωστά το μοντέλο χρειαζόμαστε ανθρώπινη αξιολόγηση. Αυτό γίνεται συνήθως συγκρίνοντας τις απαντήσεις από διαφορετικά μοντέλα.
 

Ένας καλύτερος τρόπος για την αξιολόγηση των LLMs
Συγκρίνοντας δύο άμεσες ολοκληρώσεις στο έργο LMSYS – στιγμιότυπο οθόνης από τον συγγραφέα
 

Οι σχολιαστές αποφασίζουν ποια απόκριση είναι καλύτερη, όπως φαίνεται στο παραπάνω παράδειγμα, και μερικές φορές ποσοτικοποιούν τη διαφορά στην ποιότητα των ολοκληρώσεων προτροπής. Το LMSYS Org έχει δημιουργήσει ένα leaderboard που χρησιμοποιεί αυτό το είδος ανθρώπινης αξιολόγησης και συγκρίνει 17 διαφορετικά μοντέλα, αναφέροντας το Βαθμολογία Elo για κάθε μοντέλο.

Επειδή η ανθρώπινη αξιολόγηση μπορεί να είναι δύσκολο να κλιμακωθεί, έχουν γίνει προσπάθειες να κλιμακωθεί και να επιταχυνθεί η διαδικασία αξιολόγησης και αυτό κατέληξε σε ένα ενδιαφέρον έργο που ονομάζεται AlpacaEval. Εδώ κάθε μοντέλο συγκρίνεται με μια βασική γραμμή (κείμενο-davinci-003 που παρέχεται από το GPT-4) και η ανθρώπινη αξιολόγηση αντικαθίσταται με την κρίση GPT-4. Αυτό είναι πράγματι γρήγορο και επεκτάσιμο, αλλά μπορούμε να εμπιστευτούμε το μοντέλο εδώ για να εκτελέσει τη βαθμολογία; Πρέπει να γνωρίζουμε τις προκαταλήψεις του μοντέλου. Το έργο έδειξε στην πραγματικότητα ότι το GPT-4 μπορεί να ευνοήσει μεγαλύτερες απαντήσεις.

Οι μέθοδοι αξιολόγησης LLM συνεχίζουν να εξελίσσονται καθώς η κοινότητα AI αναζητά εύκολες, δίκαιες και επεκτάσιμες προσεγγίσεις. Η τελευταία εξέλιξη έρχεται από την ομάδα στο Τολόκα με ένα νέο leaderboard για περαιτέρω προώθηση των υφιστάμενων προτύπων αξιολόγησης.

Το νέο leaderboard συγκρίνει τις αποκρίσεις του μοντέλου με τις προτροπές χρηστών του πραγματικού κόσμου που κατηγοριοποιούνται από χρήσιμες εργασίες NLP, όπως περιγράφεται στο αυτό το έγγραφο InstructGPT. Δείχνει επίσης το συνολικό ποσοστό νίκης κάθε μοντέλου σε όλες τις κατηγορίες.

 

Ένας καλύτερος τρόπος για την αξιολόγηση των LLMs
Toloka leaderboard – στιγμιότυπο οθόνης από τον συγγραφέα
 

Η αξιολόγηση που χρησιμοποιήθηκε για αυτό το έργο είναι παρόμοια με αυτή που πραγματοποιήθηκε στο AlpacaEval. Οι βαθμολογίες στον πίνακα κατάταξης αντιπροσωπεύουν το ποσοστό νίκης του αντίστοιχου μοντέλου σε σύγκριση με το Γκουανάκο 13Β μοντέλο, το οποίο χρησιμεύει εδώ ως σύγκριση βάσης. Η επιλογή του Guanaco 13B είναι μια βελτίωση της μεθόδου AlpacaEval, η οποία χρησιμοποιεί ως βάση το σύντομα ξεπερασμένο μοντέλο text-davinci-003.

Η πραγματική αξιολόγηση πραγματοποιείται από ανθρώπους ειδικούς σχολιαστές σε ένα σύνολο εντολών του πραγματικού κόσμου. Για κάθε προτροπή, δίνονται στους σχολιαστές δύο συμπληρώσεις και ερωτώνται ποια προτιμούν. Μπορείτε να βρείτε λεπτομέρειες σχετικά με τη μεθοδολογία εδώ

Αυτός ο τύπος ανθρώπινης αξιολόγησης είναι πιο χρήσιμος από οποιαδήποτε άλλη μέθοδο αυτόματης αξιολόγησης και θα πρέπει να βελτιώσει την ανθρώπινη αξιολόγηση που χρησιμοποιείται για το LMSYS leaderboard. Το μειονέκτημα της μεθόδου LMSYS είναι ότι οποιοσδήποτε με το σύνδεσμος μπορεί να λάβει μέρος στην αξιολόγηση, εγείροντας σοβαρά ερωτήματα σχετικά με την ποιότητα των δεδομένων που συλλέγονται με αυτόν τον τρόπο. Ένα κλειστό πλήθος ειδικών σχολιαστών έχει καλύτερες δυνατότητες για αξιόπιστα αποτελέσματα και η Toloka εφαρμόζει πρόσθετες τεχνικές ποιοτικού ελέγχου για να διασφαλίσει την ποιότητα των δεδομένων.

Σε αυτό το άρθρο, παρουσιάσαμε μια πολλά υποσχόμενη νέα λύση για την αξιολόγηση των LLMs — το Toloka Leaderboard. Η προσέγγιση είναι καινοτόμος, συνδυάζει τα πλεονεκτήματα των υπαρχουσών μεθόδων, προσθέτει ευαισθησία για συγκεκριμένες εργασίες και χρησιμοποιεί αξιόπιστες τεχνικές ανθρώπινου σχολιασμού για τη σύγκριση των μοντέλων.

Εξερευνήστε τον πίνακα και μοιραστείτε τις απόψεις και τις προτάσεις σας για βελτιώσεις μαζί μας.
 
 

Magdalena Konkiewicz είναι Ευαγγελιστής δεδομένων στην Toloka, μια παγκόσμια εταιρεία που υποστηρίζει γρήγορη και επεκτάσιμη ανάπτυξη τεχνητής νοημοσύνης. Είναι κάτοχος μεταπτυχιακού τίτλου στην Τεχνητή Νοημοσύνη από το Πανεπιστήμιο του Εδιμβούργου και έχει εργαστεί ως Μηχανικός NLP, Developer και Data Scientist για επιχειρήσεις στην Ευρώπη και την Αμερική. Έχει επίσης ασχοληθεί με τη διδασκαλία και την καθοδήγηση Επιστημόνων Δεδομένων και συμβάλλει τακτικά σε εκδόσεις Επιστήμης Δεδομένων και Μηχανικής Μάθησης.

Σφραγίδα ώρας:

Περισσότερα από KDnuggets