En omfattende liste over ressourcer til at mestre store sprogmodeller - KDnuggets

En omfattende liste over ressourcer til at mestre store sprogmodeller – KDnuggets

Kildeknude: 2974027

En omfattende liste over ressourcer til at mestre store sprogmodeller
Billede genereret med Leonardo.Ai
 

I dette enorme landskab af kunstig intelligens opstod en revolutionær kraft i form af store sprogmodeller (LLMS). Det er ikke kun et buzzword, men vores fremtid. Deres evne til at forstå og generere menneskelignende tekst bragte dem i søgelyset, og nu er det blevet et af de hotteste forskningsområder. Forestil dig en chatbot, der kan reagere på dig, som om du taler med dine venner eller forestiller dig et indholdsgenereringssystem, som det bliver svært at skelne mellem, om det er skrevet af et menneske eller en AI. Hvis ting som dette interesserer dig, og du ønsker at dykke længere ind i hjertet af LLM'er, så er du på det rigtige sted. Jeg har samlet en omfattende liste over ressourcer lige fra informative artikler, kurser og GitHub-repositories til relevante forskningsartikler, der kan hjælpe dig med at forstå dem bedre. Uden yderligere forsinkelse, lad os kickstarte vores fantastiske rejse i LLM'ernes verden. 

En omfattende liste over ressourcer til at mestre store sprogmodeller
Billede af Polina Tankilevitch på Pexels 

1. Deep Learning Specialization – Coursera

Forbindelse: Deep Learning Specialisering

Beskrivelse: Dyb læring danner rygraden i LLM'er. Dette omfattende kursus undervist af Andrew Ng dækker de væsentlige emner i neurale netværk, det grundlæggende i computersyn og naturlig sprogbehandling, og hvordan du strukturerer dine maskinlæringsprojekter. 

2. Stanford CS224N: NLP med Deep Learning – YouTube

Forbindelse: Stanford CS224N: NLP med Deep Learning

Beskrivelse: Det er en guldgrube af viden og giver en grundig introduktion til banebrydende forskning i deep learning til NLP.

3. HuggingFace Transformers Course – HuggingFace

Forbindelse: HuggingFace Transformers kursus

Beskrivelse: Dette kursus underviser i NLP ved at bruge biblioteker fra HuggingFace-økosystemet. Det dækker den indre funktion og brugen af ​​følgende biblioteker fra HuggingFace:

  • transformers
  • Tokenizere
  • datasæt
  • Accelerate

4. ChatGPT Prompt Engineering for udviklere – Coursera

Forbindelse: ChatGPT Prompt Engineering kursus

Beskrivelse: ChatGPT er en populær LLM, og dette kursus deler den bedste praksis og de væsentlige principper for at skrive effektive prompter for bedre generering af svar.

En omfattende liste over ressourcer til at mestre store sprogmodeller
Billede genereret med Leonardo.Ai

1. LLM University – Sammenhæng

Forbindelse: LLM Universitet 

Beskrivelse: Cohere tilbyder et specialiseret kursus for at mestre LLM'er. Deres sekventielle spor, som dækker de teoretiske aspekter af NLP, LLM'er og deres arkitektur i detaljer, er målrettet begyndere. Deres ikke-sekventielle vej er for erfarne personer, der er mere interesserede i de praktiske anvendelser og brugscases af disse kraftfulde modeller frem for deres interne arbejde.

2. Stanford CS324: Store sprogmodeller – Stanford-websted

Forbindelse: Stanford CS324: Store sprogmodeller

Beskrivelse: Dette kursus dykker dybere ned i disse modellers forviklinger. Du vil udforske det grundlæggende, teori, etik og praktiske aspekter af disse modeller, mens du også får nogle praktiske erfaringer.

3. Princeton COS597G: Understanding Large Language Models – Princeton Site

Forbindelse: Forståelse af store sprogmodeller

Beskrivelse: Det er et kursus på kandidatniveau, der tilbyder en omfattende læseplan, hvilket gør det til et fremragende valg til dybdegående læring. Du vil udforske det tekniske grundlag, muligheder og begrænsninger af modeller som BERT, GPT, T5-modeller, blandings-af-ekspert-modeller, genfindingsbaserede modeller osv.

4. ETH Zürich: Store sprogmodeller (LLM'er) – RycoLab

Forbindelse: ETH Zürich: Store sprogmodeller

Beskrivelse: Dette nydesignede kursus tilbyder en omfattende udforskning af LLM'er. Dyk ned i sandsynlighedsgrundlag, neurale netværksmodellering, træningsprocesser, skaleringsteknikker og kritiske diskussioner om sikkerhed og potentielt misbrug.

5. Full Stack LLM Bootcamp – The Full Stack

Forbindelse: Full Stack LLM Bootcamp

Beskrivelse: Full Stack LLM-bootcampen er et brancherelevant kursus, der dækker emner såsom hurtige ingeniørteknikker, LLM-grundlæggende, implementeringsstrategier og brugergrænsefladedesign, hvilket sikrer, at deltagerne er velforberedte til at bygge og implementere LLM-applikationer.

6. Finjustering af store sprogmodeller – Coursera

Forbindelse: Finjustering af store sprogmodeller

Beskrivelse: Finjustering er teknikken, der giver dig mulighed for at tilpasse LLM'er til dine specifikke behov. Ved at gennemføre dette kursus vil du forstå, hvornår du skal anvende finjustering, dataforberedelse til finjustering, og hvordan du træner din LLM på nye data og evaluerer dens ydeevne.

En omfattende liste over ressourcer til at mestre store sprogmodeller
Billede genereret med Leonardo.Ai

1. Hvad laver ChatGPT ... og hvorfor virker det? – Steven Wolfram

Forbindelse: Hvad laver ChatGPT ... og hvorfor virker det?

Beskrivelse: Denne korte bog er skrevet af Steven Wolfram, en kendt videnskabsmand. Han diskuterer de grundlæggende aspekter af ChatGPT, dets oprindelse i neurale net og dets fremskridt inden for transformatorer, opmærksomhedsmekanismer og naturlig sprogbehandling. Det er en fremragende læsning for en, der er interesseret i at udforske mulighederne og begrænsningerne ved LLM'er.

2. Understanding Large Language Models: A Transformative Reading List – Sebastian Raschka

Forbindelse: Forståelse af store sprogmodeller: En transformativ læseliste

Beskrivelse: Den indeholder en samling af vigtige forskningsartikler og giver en kronologisk læseliste, startende fra tidlige artikler om tilbagevendende neurale netværk (RNN'er) til den indflydelsesrige BERT-model og videre. Det er en uvurderlig ressource for forskere og praktikere at studere udviklingen af ​​NLP og LLM'er.

3. Artikelserie: Store sprogmodeller – Jay Alammar

Forbindelse: Artikelserie: Store sprogmodeller

Beskrivelse: Jay Alammars blogs er en skatkammer af viden for alle, der studerer store sprogmodeller (LLM'er) og transformatorer. Hans blogs skiller sig ud for deres unikke blanding af visualiseringer, intuitive forklaringer og omfattende dækning af emnet.

4. Opbygning af LLM-applikationer til produktion – Chip Huyen

Forbindelse: Opbygning af LLM-applikationer til produktion

Beskrivelse: I denne artikel diskuteres udfordringerne ved at producere LLM'er. Det giver indsigt i opgavekomponering og viser lovende use cases. Enhver, der er interesseret i praktiske LLM'er, vil finde det virkelig værdifuldt.

En omfattende liste over ressourcer til at mestre store sprogmodeller
Billede af RealToughCandy.com på Pexels 

1. Awesome-LLM ( 9k ⭐ )

Forbindelse:  Fantastisk-LLM

Beskrivelse: Det er en kurateret samling af artikler, rammer, værktøjer, kurser, tutorials og ressourcer fokuseret på store sprogmodeller (LLM'er), med særlig vægt på ChatGPT.

2. LLMsPracticalGuide (6.9k ⭐)

Forbindelse:  De praktiske vejledninger til store sprogmodeller

Beskrivelse: Det hjælper praktiserende læger med at navigere i det vidtstrakte landskab af LLM'er. Det er baseret på undersøgelsespapiret med titlen: Udnyttelse af kraften i LLM'er i praksis: En undersøgelse om ChatGPT og videre , denne blog. 

3. LLMSurvey ( 6.1k ⭐ )

Forbindelse:  LLMSurvey

Beskrivelse: Det er en samling af undersøgelsespapirer og ressourcer baseret på papiret med titlen: En undersøgelse af store sprogmodeller. Den indeholder også en illustration af den tekniske udvikling af GPT-seriens modeller samt en evolutionær graf over forskningsarbejdet udført på LLaMA.

4. Awesome Graph-LLM ( 637 ⭐ )

Forbindelse:  Awesome-Graph-LLM

Beskrivelse: Det er en værdifuld kilde for folk, der er interesseret i krydsfeltet mellem grafbaserede teknikker og LLM'er. det giver en samling af forskningsartikler, datasæt, benchmarks, undersøgelser og værktøjer, der dykker ned i dette nye felt.

5. Awesome Langchain (5.4k ⭐)

Forbindelse:  fantastisk langkæde

Beskrivelse: LangChain er den hurtige og effektive ramme for LLM-projekter, og dette lager er omdrejningspunktet for at spore initiativer og projekter relateret til LangChains økosystem. 

  1. "En komplet undersøgelse om ChatGPT i AIGC-æra” – Det er et godt udgangspunkt for begyndere i LLM'er. Det dækker omfattende den underliggende teknologi, applikationer og udfordringer ved ChatGPT.
  2. "En undersøgelse af store sprogmodeller” – Det dækker de seneste fremskridt inden for LLM'er specifikt inden for de fire store aspekter af fortræning, tilpasningsjustering, udnyttelse og kapacitetsevaluering.
  3. "Udfordringer og anvendelser af store sprogmodeller” – Diskuterer udfordringerne ved LLM'er og de succesrige anvendelsesområder for LLM'er.
  4. "Opmærksomhed er alt hvad du behøver” – Transformers fungerer som grundstenen for GPT og andre LLM'er, og dette papir introducerer transformatorarkitekturen. 
  5. "Den kommenterede transformator” – En ressource fra Harvard University, der giver en detaljeret og kommenteret forklaring af Transformer-arkitekturen, som er fundamental for mange LLM'er.
  6. "Den illustrerede transformator” – En visuel guide, der hjælper dig med at forstå Transformer-arkitekturen i dybden, hvilket gør komplekse koncepter mere tilgængelige.
  7. "BERT: Fortræning af dybe tovejstransformere til sprogforståelse” – Dette papir introducerer BERT, en meget indflydelsesrig LLM, der sætter nye benchmarks for adskillige NLP-opgaver (Natural Language Processing).

I denne artikel har jeg samlet en omfattende liste over ressourcer, der er vigtige for at mestre store sprogmodeller (LLM'er). Læring er dog en dynamisk proces, og videndeling er i centrum. Hvis du har yderligere ressourcer i tankerne, som du mener bør være en del af denne omfattende liste, så tøv ikke med at dele dem i kommentarfeltet. Dine bidrag kan være uvurderlige for andre på deres læringsrejse og skabe et interaktivt og samarbejdende rum for videnberigelse.
 
 

Kanwal Mehreen er en håbefuld softwareudvikler med en stor interesse for datavidenskab og anvendelser af AI i medicin. Kanwal blev valgt som Google Generation Scholar 2022 for APAC-regionen. Kanwal elsker at dele teknisk viden ved at skrive artikler om populære emner og brænder for at forbedre repræsentationen af ​​kvinder i den teknologiske industri.

Tidsstempel:

Mere fra KDnuggets