まず、モデルのダウンロードに使用するファイルを作成します。私たちを助けるために、私たちは 抱き合う顔は、さまざまな高品質の NLP モデルを提供する Python ライブラリです。
次に、英語テキストを変換してモデルの入力として使用する単語トークンを作成するロジックを処理するために使用する Python クラスを作成します。
次に、 フラスコ 2 つのエンドポイントを持つ API。1 つはサービスが動作しているかどうかを確認するためのもので、もう 1 つはチャットボットと統合するためのものです。
最後に、ビルド時にチャット モデルを事前ダウンロードする Dockerfile を生成します。これにより、API にリクエストを送信するときに、毎回モデルをリロードするのではなく、迅速な応答を行うことができます。これにより、ボットのパフォーマンスが大幅に向上します。 API をホストするために、追加の Web サーバー フレームワークを使用せずに、wsgi サーバーとして gunicorn を使用します。
モデルをローカル マシンで実行してから本番環境で実行するまでの手順は、気が遠くなるかもしれません。ただし、近年、いくつかのサービスがこのステップをはるかに簡単に実行できるようになりました。
私たちは協力するつもりです グーグルクラウド実行 このプロジェクトのために。 Google の「サーバーレス」プラットフォーム。私はサーバーレスという言葉が好きではありません。もちろん、コードを実行するサーバーが存在する必要があるからですが、セッションから別のセッションにクライアント データを保存しないという意味ではサーバーレスです。いつでも利用可能なサーバーを取得します。
2.チャットボットNLPモデルをトレーニングするための4つのすべきことと3つのすべきでないこと