Mixtral 8x7b'yi Google Colab'da Ücretsiz Çalıştırmak - KDnuggets

Mixtral 8x7b'yi Google Colab'da Ücretsiz Çalıştırmak – KDnuggets

Kaynak Düğüm: 3059535

Mixtral 8x7b'yi Google Colab'da Ücretsiz Çalıştırma
Yazara göre resim
 

Bu yazımızda Mixtral 8x7b adlı yeni ve son teknoloji açık kaynak modelini inceleyeceğiz. Ayrıca LLaMA C++ kütüphanesini kullanarak ona nasıl erişeceğimizi ve büyük dil modellerini azaltılmış bilgi işlem ve bellekle nasıl çalıştıracağımızı da öğreneceğiz.

Karışımtral 8x7b Mistral AI tarafından oluşturulan, açık ağırlıklara sahip, yüksek kaliteli, seyrek bir uzman karışımı (SMoE) modelidir. Apache 2.0 kapsamında lisanslıdır ve çoğu kıyaslamada Llama 2 70B'den daha iyi performans gösterirken 6 kat daha hızlı çıkarım sağlar. Mixtral, çoğu standart kıyaslamada GPT3.5'e uyuyor veya onu geçiyor ve maliyet/performans açısından en iyi açık ağırlıklı modeldir.

 

Mixtral 8x7b'yi Google Colab'da Ücretsiz Çalıştırma
Image Uzmanların karışımı
 

Mixtral 8x7B, yalnızca kod çözücüye yönelik seyrek bir uzman karışımı ağı kullanır. Bu, 8 parametre grubundan seçim yapan bir ileri besleme bloğunu içerir; bir yönlendirici ağı, her bir belirteç için bu gruplardan ikisini seçer ve çıktılarını ek olarak birleştirir. Bu yöntem, maliyet ve gecikmeyi yönetirken modelin parametre sayısını artırır ve toplam 12.9 milyar parametreye sahip olmasına rağmen onu 46.7B modeli kadar verimli hale getirir.

Mixtral 8x7B modeli, 32 bin tokenden oluşan geniş bir bağlamı yönetme konusunda başarılıdır ve İngilizce, Fransızca, İtalyanca, Almanca ve İspanyolca dahil olmak üzere birçok dili destekler. Kod oluşturmada güçlü performans gösterir ve talimat takip eden bir modele ince ayar yapılarak MT-Bench gibi kıyaslamalarda yüksek puanlar elde edilebilir.

LLaMA.cpp Facebook'un LLM mimarisini temel alan büyük dil modelleri (LLM'ler) için yüksek performanslı bir arayüz sağlayan bir C/C++ kütüphanesidir. Metin oluşturma, çeviri ve soru yanıtlama gibi çeşitli görevler için kullanılabilecek hafif ve etkili bir kitaplıktır. LLaMA.cpp, LLaMA, LLaMA 2, Falcon, Alpaca, Mistral 7B, Mixtral 8x7B ve GPT4ALL dahil olmak üzere çok çeşitli LLM'leri destekler. Tüm işletim sistemleriyle uyumludur ve hem CPU'larda hem de GPU'larda çalışabilir.

Bu bölümde llama.cpp web uygulamasını Colab üzerinde çalıştıracağız. Birkaç satır kod yazarak yeni ve son teknoloji modelin performansını PC'nizde veya Google Colab'da deneyimleyebileceksiniz.

Başlamak

Öncelikle aşağıdaki komut satırını kullanarak llama.cpp GitHub deposunu indireceğiz: 

!git clone --depth 1 https://github.com/ggerganov/llama.cpp.git

Bundan sonra dizini repository'ye değiştireceğiz ve 'make' komutunu kullanarak llama.cpp'yi kuracağız. CUDA yüklü NVidia GPU için llama.cpp dosyasını kuruyoruz. 

%cd llama.cpp

!make LLAMA_CUBLAS=1

Modeli İndir

Hugging Face Hub’dan `.gguf` model dosyasının uygun versiyonunu seçerek modeli indirebiliriz. Çeşitli sürümler hakkında daha fazla bilgiyi şurada bulabilirsiniz: TheBloke/Mixtral-8x7B-Instruct-v0.1-GGUF.

 

Mixtral 8x7b'yi Google Colab'da Ücretsiz Çalıştırma
Image TheBloke/Mixtral-8x7B-Instruct-v0.1-GGUF
 

Modeli mevcut dizine indirmek için `wget` komutunu kullanabilirsiniz. 

!wget https://huggingface.co/TheBloke/Mixtral-8x7B-Instruct-v0.1-GGUF/resolve/main/mixtral-8x7b-instruct-v0.1.Q2_K.gguf

LLaMA Sunucusu için Harici Adres

LLaMA sunucusunu çalıştırdığımızda, bize Colab'da işimize yaramayan bir localhost IP'si verecektir. Colab çekirdek proxy bağlantı noktasını kullanarak localhost proxy'sine bağlanmamız gerekiyor. 

Aşağıdaki kodu çalıştırdıktan sonra global köprüyü alacaksınız. Daha sonra web uygulamamıza erişmek için bu bağlantıyı kullanacağız. 

from google.colab.output import eval_js
print(eval_js("google.colab.kernel.proxyPort(6589)"))

 

https://8fx1nbkv1c8-496ff2e9c6d22116-6589-colab.googleusercontent.com/

Sunucuyu Çalıştırmak

LLaMA C++ sunucusunu çalıştırmak için sunucu komutuna model dosyasının konumunu ve doğru bağlantı noktası numarasını sağlamanız gerekir. Bağlantı noktası numarasının, proxy bağlantı noktası için önceki adımda başlattığımız numarayla eşleştiğinden emin olmak önemlidir.  

%cd /content/llama.cpp

!./server -m mixtral-8x7b-instruct-v0.1.Q2_K.gguf -ngl 27 -c 2048 --port 6589

 

Mixtral 8x7b'yi Google Colab'da Ücretsiz Çalıştırma
 

Sunucu yerel olarak çalışmadığından, sohbet web uygulamasına önceki adımda proxy bağlantı noktası köprüsüne tıklayarak erişilebilir.

LLaMA C++ Web uygulaması

Chatbotu kullanmaya başlamadan önce onu özelleştirmemiz gerekiyor. Bilgi istemi bölümünde “LLaMA”yı model adınızla değiştirin. Ek olarak, oluşturulan yanıtları ayırt etmek için kullanıcı adını ve bot adını değiştirin.

 

Mixtral 8x7b'yi Google Colab'da Ücretsiz Çalıştırma
 

Aşağı kaydırıp sohbet bölümüne yazarak sohbete başlayın. Diğer açık kaynak modellerinin doğru şekilde yanıtlayamadığı teknik soruları sormaktan çekinmeyin. 

 

Mixtral 8x7b'yi Google Colab'da Ücretsiz Çalıştırma
 

Uygulamayla ilgili sorunlarla karşılaşırsanız Google Colab'ımı kullanarak uygulamayı kendi başınıza çalıştırmayı deneyebilirsiniz: https://colab.research.google.com/drive/1gQ1lpSH-BhbKN-DdBmq5r8-8Rw8q1p9r?usp=sharing

Bu eğitimde, gelişmiş açık kaynak modeli Mixtral 8x7b'nin LLaMA C++ kitaplığını kullanarak Google Colab'da nasıl çalıştırılacağına ilişkin kapsamlı bir kılavuz sağlanmaktadır. Diğer modellerle karşılaştırıldığında Mixtral 8x7b üstün performans ve verimlilik sunarak büyük dil modelleriyle denemeler yapmak isteyen ancak kapsamlı hesaplama kaynaklarına sahip olmayanlar için mükemmel bir çözüm haline geliyor. Dizüstü bilgisayarınızda veya ücretsiz bir bulut bilişimde kolayca çalıştırabilirsiniz. Kullanıcı dostudur ve sohbet uygulamanızı başkalarının kullanması ve denemesi için bile dağıtabilirsiniz.

Umarım büyük modeli çalıştırmaya yönelik bu basit çözümü faydalı bulmuşsunuzdur. Her zaman basit ve daha iyi seçenekler arıyorum. Daha iyi bir çözümünüz varsa lütfen bana bildirin, bir dahaki sefere bunu ele alacağım.
 
 

Abid Ali Avan (@1abidaliwan), makine öğrenimi modelleri oluşturmayı seven sertifikalı bir veri bilimcisi uzmanıdır. Şu anda, makine öğrenimi ve veri bilimi teknolojileri üzerine içerik oluşturmaya ve teknik bloglar yazmaya odaklanıyor. Abid, Teknoloji Yönetimi alanında yüksek lisans ve Telekomünikasyon Mühendisliği alanında lisans derecesine sahiptir. Vizyonu, akıl hastalığı ile mücadele eden öğrenciler için bir grafik sinir ağı kullanarak bir AI ürünü oluşturmaktır.

Zaman Damgası:

Den fazla KDNuggets