Vi börjar med att skapa en fil som vi kommer att använda för att ladda ner modellen. För att hjälpa oss använder vi Kramande ansikte, ett pythonbibliotek som tillhandahåller olika NLP-modeller av hög kvalitet.
Sedan skapar vi en pythonklass som vi kommer att använda för att hantera logiken från att konvertera vår engelska text för att skapa våra word-tokens som vi kommer att använda som ingångar för vår modell.
Vi bygger sedan en Flask API med två slutpunkter, en för att kontrollera om tjänsten fungerar och en för att integreras med vår chatbot.
Slutligen genererar vi en Dockerfil som när den byggs kommer att ladda ner chattmodellen i förväg så att när vi skickar begäran till vårt API kan den göra snabba svar istället för att ladda om modellen varje gång. Detta kommer att drastiskt förbättra vår bots prestanda. För att vara värd för API använder vi gunicorn som vår wsgi-server utan ytterligare webbserverramverk.
Stegen från att köra din modell på din lokala maskin för att få den att köra i produktion kan se skrämmande. Flera tjänster har dock gjort detta steg mycket lättare de senaste åren.
Vi ska jobba med google molnkörning för detta projekt. Googles “serverlös” plattform, jag gillar inte ordet serverlös eftersom det naturligtvis måste finnas en server som kör koden, men det är serverlöst i den meningen att det inte sparar klientdata från session till en annan session och att vi får vilken server som helst som är tillgänglig när som helst.
1. Chatbots trenderapport 2021
2. 4 GÖR och 3 GÖR INTE för träning av en Chatbot NLP-modell
- Annat
- AI
- api
- Bot
- SLUTRESULTAT
- chatbot
- chatbots
- kontroll
- cloud
- koda
- Skapa
- datum
- Engelska
- EV
- Ramverk
- Hög
- Hur ser din drömresa ut
- How To
- hr
- HTTPS
- IP
- IT
- Kx
- Bibliotek
- lokal
- Medium
- modell
- nlp
- prestanda
- plattform
- Produktion
- projektet
- Python
- kvalitet
- rapport
- rinnande
- känsla
- Server
- Tjänster
- So
- starta
- system
- tid
- tokens
- Utbildning
- Trender
- us
- webb
- webbserver
- Arbete
- år