Kuva tekijältä
Tässä viestissä tutkimme uutta huippuluokan avoimen lähdekoodin mallia nimeltä Mixtral 8x7b. Opimme myös käyttämään sitä LLaMA C++ -kirjaston avulla ja kuinka ajaa suuria kielimalleja pienemmällä tietokoneella ja muistilla.
Mixtral 8x7b on Mistral AI:n luoma korkealaatuinen harvaan asiantuntijayhdistelmä (SMoE) -malli avoimilla painoilla. Se on lisensoitu Apache 2.0:lla ja ylittää Llama 2 70B:n useimmissa vertailuissa, mutta sillä on kuusi kertaa nopeampi päättely. Mixtral vastaa tai voittaa GPT6:n useimmissa vakiovertailuissa ja on paras avoimen painon malli kustannus/suorituskykysuhteen suhteen.
Kuva Asiantuntijoiden sekoitus
Mixtral 8x7B käyttää vain dekooderin harvaa asiantuntijoiden yhdistelmäverkkoa. Tämä sisältää myötäkytkentälohkon, joka valitsee kahdeksasta parametriryhmästä, ja reititinverkko valitsee kaksi näistä ryhmistä kullekin tunnisteelle yhdistäen niiden lähdöt additiivisesti. Tämä menetelmä parantaa mallin parametrien määrää samalla kun se hallitsee kustannuksia ja latenssia, mikä tekee siitä yhtä tehokkaan kuin 8 B:n malli, vaikka kokonaisparametreja on 12.9 B.
Mixtral 8x7B -malli on erinomainen käsittelemään laajaa 32 XNUMX tokenin kontekstia ja tukee useita kieliä, mukaan lukien englanti, ranska, italia, saksa ja espanja. Se osoittaa vahvaa suorituskykyä koodin luomisessa, ja se voidaan hienosäätää käskyjä noudattavaksi malliksi, mikä saavuttaa korkeita pisteitä MT-Benchin kaltaisissa vertailuissa.
LLaMA.cpp on C/C++-kirjasto, joka tarjoaa tehokkaan käyttöliittymän suurille kielimalleille (LLM), jotka perustuvat Facebookin LLM-arkkitehtuuriin. Se on kevyt ja tehokas kirjasto, jota voidaan käyttää monenlaisiin tehtäviin, kuten tekstin luomiseen, kääntämiseen ja kysymyksiin vastaamiseen. LLaMA.cpp tukee laajaa valikoimaa LLM:itä, mukaan lukien LLaMA, LLaMA 2, Falcon, Alpaca, Mistral 7B, Mixtral 8x7B ja GPT4ALL. Se on yhteensopiva kaikkien käyttöjärjestelmien kanssa ja voi toimia sekä prosessoreilla että GPU:illa.
Tässä osiossa käytämme llama.cpp-verkkosovellusta Colabissa. Kirjoittamalla muutaman rivin koodia voit kokea uuden huippuluokan mallin suorituskyvyn tietokoneellasi tai Google Colabissa.
Päästä alkuun
Ensin lataamme llama.cpp GitHub -arkiston alla olevan komentorivin avulla:
!git clone --depth 1 https://github.com/ggerganov/llama.cpp.git
Tämän jälkeen muutamme hakemiston arkistoon ja asennamme llama.cpp:n `make`-komennolla. Asennamme llama.cpp:n NVidia GPU:lle, jossa on CUDA asennettuna.
%cd llama.cpp
!make LLAMA_CUBLAS=1
Lataa malli
Voimme ladata mallin Hugging Face Hubista valitsemalla sopivan version .gguf-mallitiedostosta. Lisätietoja eri versioista löytyy osoitteesta TheBloke/Mixtral-8x7B-Instruct-v0.1-GGUF.
Kuva TheBloke/Mixtral-8x7B-Instruct-v0.1-GGUF
Voit ladata mallin nykyiseen hakemistoon komennolla "wget".
!wget https://huggingface.co/TheBloke/Mixtral-8x7B-Instruct-v0.1-GGUF/resolve/main/mixtral-8x7b-instruct-v0.1.Q2_K.gguf
LLaMA-palvelimen ulkoinen osoite
Kun käytämme LLaMA-palvelinta, se antaa meille paikallisen palvelimen IP-osoitteen, joka on hyödytön meille Colabissa. Tarvitsemme yhteyden localhost-välityspalvelimeen käyttämällä Colab-ytimen välityspalvelinporttia.
Kun olet suorittanut alla olevan koodin, saat maailmanlaajuisen hyperlinkin. Käytämme tätä linkkiä päästäksemme verkkosovellukseemme myöhemmin.
from google.colab.output import eval_js
print(eval_js("google.colab.kernel.proxyPort(6589)"))
https://8fx1nbkv1c8-496ff2e9c6d22116-6589-colab.googleusercontent.com/
Palvelin käynnissä
LLaMA C++ -palvelimen suorittamiseksi sinun on annettava palvelinkomento mallitiedoston sijainnin ja oikean portin numeron kanssa. On tärkeää varmistaa, että portin numero vastaa edellisessä vaiheessa välityspalvelimen porttia koskevaa porttinumeroa.
%cd /content/llama.cpp
!./server -m mixtral-8x7b-instruct-v0.1.Q2_K.gguf -ngl 27 -c 2048 --port 6589
Chat-verkkosovellukseen pääsee napsauttamalla välityspalvelinportin hyperlinkkiä edellisessä vaiheessa, koska palvelin ei ole käynnissä paikallisesti.
LLaMA C++ Webapp
Ennen kuin aloitamme chatbotin käytön, meidän on mukautettava se. Korvaa "LLaMA" mallisi nimellä kehoteosiossa. Lisäksi muokkaa käyttäjänimeä ja botin nimeä erotellaksesi luodut vastaukset.
Aloita chattailu vierittämällä alas ja kirjoittamalla chat-osioon. Voit vapaasti esittää teknisiä kysymyksiä, joihin muut avoimen lähdekoodin mallit eivät ole vastanneet kunnolla.
Jos kohtaat ongelmia sovelluksen kanssa, voit yrittää käyttää sitä itse Google Colabillani: https://colab.research.google.com/drive/1gQ1lpSH-BhbKN-DdBmq5r8-8Rw8q1p9r?usp=sharing
Tämä opetusohjelma sisältää kattavan oppaan edistyneen avoimen lähdekoodin Mixtral 8x7b -mallin käyttämiseen Google Colabissa LLaMA C++ -kirjaston avulla. Muihin malleihin verrattuna Mixtral 8x7b tarjoaa erinomaisen suorituskyvyn ja tehokkuuden, joten se on erinomainen ratkaisu niille, jotka haluavat kokeilla suuria kielimalleja, mutta joilla ei ole laajoja laskentaresursseja. Voit käyttää sitä helposti kannettavalla tietokoneellasi tai ilmaisella pilvipalvelulla. Se on käyttäjäystävällinen, ja voit jopa ottaa chat-sovelluksesi käyttöön muiden käytettäväksi ja kokeiltavaksi.
Toivottavasti tästä yksinkertaisesta ratkaisusta suuren mallin käyttämiseen oli apua. Etsin aina yksinkertaisia ja parempia vaihtoehtoja. Jos sinulla on vielä parempi ratkaisu, kerro siitä minulle, niin käsittelen sitä ensi kerralla.
Abid Ali Awan (@1abidaliawan) on sertifioitu datatieteilijä, joka rakastaa koneoppimismallien rakentamista. Tällä hetkellä hän keskittyy sisällöntuotantoon ja kirjoittaa teknisiä blogeja koneoppimisesta ja datatieteen teknologioista. Abidilla on maisterin tutkinto teknologiajohtamisesta ja kandidaatin tutkinto tietoliikennetekniikasta. Hänen visionsa on rakentaa tekoälytuote graafisen hermoverkon avulla opiskelijoille, jotka kamppailevat mielenterveysongelmista.
- SEO-pohjainen sisällön ja PR-jakelu. Vahvista jo tänään.
- PlatoData.Network Vertical Generatiivinen Ai. Vahvista itseäsi. Pääsy tästä.
- PlatoAiStream. Web3 Intelligence. Tietoa laajennettu. Pääsy tästä.
- PlatoESG. hiili, CleanTech, energia, ympäristö, Aurinko, Jätehuolto. Pääsy tästä.
- PlatonHealth. Biotekniikan ja kliinisten kokeiden älykkyys. Pääsy tästä.
- Lähde: https://www.kdnuggets.com/running-mixtral-8x7b-on-google-colab-for-free?utm_source=rss&utm_medium=rss&utm_campaign=running-mixtral-8x7b-on-google-colab-for-free
- :On
- :ei
- 1
- 12
- 27
- 46
- 7
- 8
- a
- pystyy
- pääsy
- Accessed
- saavuttamisessa
- Lisäksi
- osoite
- kehittynyt
- AI
- Kaikki
- Myös
- aina
- am
- an
- ja
- vastaus
- Apache
- sovelluksen
- Hakemus
- sopiva
- arkkitehtuuri
- OVAT
- AS
- kysyä
- perustua
- BE
- alkaa
- alle
- Viitearvot
- PARAS
- Paremmin
- välillä
- Tukkia
- blogit
- Bot
- sekä
- rakentaa
- Rakentaminen
- mutta
- by
- C + +
- nimeltään
- CAN
- Todistettu
- muuttaa
- jutella
- chatbot
- chattailuun
- valita
- pilvi
- koodi
- yhdistely
- verrattuna
- yhteensopiva
- kattava
- laskennallinen
- Laskea
- tietojenkäsittely
- liitäntä
- pitoisuus
- sisällön luominen
- tausta
- korjata
- Hinta
- kattaa
- luotu
- luominen
- Nykyinen
- Tällä hetkellä
- räätälöidä
- tiedot
- tietojenkäsittely
- tietojen tutkija
- Aste
- Antaa
- osoittaa
- sijoittaa
- Huolimatta
- erottaa
- do
- alas
- download
- kukin
- helposti
- tehokkuus
- tehokas
- kohdata
- Tekniikka
- Englanti
- Parantaa
- Jopa
- erinomainen
- experience
- kokeilu
- asiantuntijat
- tutkia
- laaja
- Kasvot
- Epäonnistui
- haukka
- nopeampi
- tuntea
- harvat
- filee
- tarkennus
- varten
- löytyi
- Ilmainen
- Ranskan
- alkaen
- toiminto
- syntyy
- sukupolvi
- Saksan
- saada
- GitHub
- Antaa
- Global
- GPU
- GPU
- kaavio
- Graafinen hermoverkko
- Ryhmän
- ohjaavat
- Käsittely
- Olla
- ottaa
- he
- hyödyllinen
- Korkea
- korkea suorituskyky
- korkealaatuisia
- hänen
- pitää
- toivoa
- Miten
- Miten
- HTTPS
- Napa
- i
- if
- sairaus
- tuoda
- tärkeä
- in
- Mukaan lukien
- tiedot
- aloitettu
- asentaa
- asentaminen
- liitäntä
- tulee
- liittyy
- IP
- kysymykset
- IT
- Italian
- KDnuggets
- Tietää
- Kieli
- kielet
- kannettava tietokone
- suuri
- Viive
- myöhemmin
- OPPIA
- oppiminen
- antaa
- Kirjasto
- Licensed
- kevyt
- pitää
- linja
- linjat
- LINK
- liekki
- paikallisesti
- sijainti
- näköinen
- rakastaa
- kone
- koneoppiminen
- tehdä
- Tekeminen
- johto
- toimitusjohtaja
- mestari
- tulitikut
- me
- Muisti
- henkinen
- Mielisairaus
- menetelmä
- seos
- malli
- mallit
- muokata
- lisää
- eniten
- moninkertainen
- my
- nimi
- Tarve
- verkko
- hermo-
- neuroverkkomallien
- Uusi
- seuraava
- numero
- Nvidia
- of
- on
- ONE
- avata
- avoimen lähdekoodin
- toiminta
- käyttöjärjestelmät
- Vaihtoehdot
- or
- Muut
- Muuta
- meidän
- päihittää
- ulostulo
- lähdöt
- oma
- parametri
- parametrit
- PC
- suorituskyky
- Platon
- Platonin tietotieto
- PlatonData
- Ole hyvä
- Kirje
- edellinen
- Tuotteet
- ammatillinen
- asianmukaisesti
- toimittaa
- tarjoaa
- valtuutettu
- kysymys
- kysymykset
- alue
- Vähentynyt
- suhteen
- korvata
- säilytyspaikka
- tutkimus
- Esittelymateriaalit
- vasteet
- reititin
- ajaa
- juoksu
- s
- tiede
- Tiedemies
- tulokset
- vieritys
- Osa
- valitsemalla
- palvelin
- Yksinkertainen
- koska
- ratkaisu
- lähde
- Espanjan
- standardi
- huippu-
- Vaihe
- vahva
- Struggling
- Opiskelijat
- esimies
- Tukee
- varma
- järjestelmät
- tehtävät
- Tekninen
- Technologies
- Elektroniikka
- tietoliikenne
- teksti
- tekstin luominen
- että
- -
- heidän
- Nämä
- tätä
- ne
- aika
- että
- symbolinen
- tokens
- Yhteensä
- Kääntäminen
- yrittää
- oppitunti
- kaksi
- varten
- us
- käyttää
- käytetty
- käyttäjä
- helppokäyttöinen
- käyttötarkoituksiin
- käyttämällä
- lajike
- eri
- versio
- visio
- haluta
- we
- verkko
- Web-sovellus
- joka
- vaikka
- KUKA
- leveä
- Laaja valikoima
- tulee
- with
- kirjoittaminen
- te
- Sinun
- zephyrnet