概要
急速に成長する人工知能と機械学習の状況の中で、TinyLlama 1.1B は注目に値する開発として登場しました。計算上の制約により、より複雑なモデルを実行することが困難になっている時代において、TinyLlama は期待を裏切ることで際立っています。コンパクトモデルの驚異的な性能を発揮します。
この記事は、コンパクトで大規模な言語モデルである TinyLlama 1.1B の分析を提供することを目的としています。パフォーマンス ベンチマークでどのようにトレーニングされたか、Hugging Face プラットフォームを使用した実際の実装など、その核心的な側面を詳しく掘り下げていきます。さらに、このモデルを無料の Google Colab 上で実行し、その数学と推論能力をテストします。
学習目標
- TinyLlama 1.1B について包括的に理解する
- モデルが経験した複雑なトレーニング プロセスを調査する
- パフォーマンスとベンチマーク結果を分析して、その有効性を評価します
- コーディング例を使用して、TinyLlama 1.1B を実装する実践的な手順を学びます。
この記事は、の一部として公開されました データサイエンスブログ。
目次
TinyLlama 1.1B とは何ですか?
TinyLlama 1.1B は、より広範な Llama プロジェクトの一部であり、言語モデリングの進歩の証です。これは 1.1 億のパラメーターを備え、3 兆という驚異的なトークンでトレーニングされたモデルであり、AI 環境において独自の地位を占めています。より大きな対応物とは異なり、TinyLlama 1.1B はより効率的で管理しやすいように設計されており、計算リソースが限られているアプリケーションに適しています。
このオープンソース モデルにより、最先端の AI テクノロジーへのアクセスが民主化され、多くの開発者や研究者が自然言語処理の分野で探索および革新できるようになります。これは、今日の多様なコンピューティング環境において重要な考慮事項である、パフォーマンスとリソース消費のバランスをとる能力で知られるモデルです。
TinyLlama 1.1Bのトレーニングプロセス
TinyLlama 1.1B のトレーニング プロセスは、モデル自体と同様に魅力的です。 TinyLlama のトレーニングは 90 日間だけ行われ、16 個の A100-40G GPU でトレーニングされました。事前トレーニングは 3 兆トークンで行われ、TinyLlama チームは各 XNUMX 兆トークン間の中間モデルを公開しました。
データに関しては、Slimpajama と Starcoderdata は合計 950 億トークンのデータセット サイズで取得されました。自然言語とコードの比率は 7:3 に維持されました。つまり、データの 70% が自然言語で、30% がコードでした。したがって、微調整のための 3 兆トークンのマークを達成するために、TinyLlama はこのデータセットに対して 3 エポックのトレーニングを受けました。
TinyLlama-Chat と呼ばれる TinyLlama のチャット バージョンもリリースされています。当初、このモデルは、ChatGPT によって生成されたさまざまな合成会話を含む UltraChat データセットで微調整されました。このステップは、さまざまな会話のコンテキストやスタイルを処理できるモデルを作成する上で重要でした。
UltraFeedback データセットの DPOTrainer を使用して、さらなる改良が達成されました。このトレーニング フェーズでは、人間のような会話パターンに合わせてモデルの応答を調整することに重点を置きました。その結果、さまざまなトピックに関する情報を把握するだけでなく、自然で魅力的な方法で対話するモデルが生まれました。
また読むことができます: LlaMA 2 入門: 初心者ガイド
パフォーマンスとベンチマークの結果
TinyLlama 1.1B のパフォーマンスを評価すると、高品質の応答を迅速に提供できることがわかります。そのトレーニングにより、多言語アプリケーションに対応できる能力が身に付きました。これは、グローバル化した世界において重要な機能です。 TinyLlama 1.1B は、サイズが小さいにもかかわらず、応答品質と速度に関しては依然として大型の製品に追いつき、さまざまな AI アプリケーションで強力なツールとなっています。
TinyLlama 1.1B のベンチマークは、大規模モデルのベンチマークほど広範囲ではありませんが、複雑な言語タスクの処理における熟練度を示しています。複数の言語で一貫性と文脈に関連した応答を生成する能力は特に印象的です。モデルは、HellaSwag、WinoGrande、ARC、MMLU などのさまざまなベンチマークでテストされました。合計の平均スコアは 52.99 でした。これは、平均スコア 1 を達成した他の 1 億パラメータ モデル、つまり Pythia 48.3B よりもはるかに優れています。この表は、各ベンチマークの個別のスコアを示しています。
ベンチマーク | TinyLlama 1.1B スコア |
---|---|
ヘラスワッグ | 59.2 |
オブカ | 36.0 |
ウィノグランデ | 59.12 |
ARC_c | 30.12 |
ARC_e | 55.25 |
ブールク | 57.83 |
ピカ | 73.29 |
平均 | 52.9 |
TinyLlama – はじめに
このセクションでは、TinyLlama Chat の量子化バージョンをダウンロードし、Google Colab で実行します。モデルをダウンロードする前に、次の Python パッケージをダウンロードしてインストールする必要があります。
!CMAKE_ARGS="-DLLAMA_CUBLAS=on" FORCE_CMAKE=1 pip3 install llama-cpp-python
!pip3 install huggingface-hub
- CMAKE_ARGS=”-DLLAMA_CUBLAS=オン” および FORCE_CMAKE=1を使用すると、llama_cpp_python が無料の colab バージョンで利用可能な Nvidia GPU を利用できるようになります。
- 次に、 ラマ_cpp_python pip3 経由でパッケージ化する
- ダウンロードもします ハグフェイスハブ、量子化された TinyLlama 1.1B Chat をダウンロードします。
TinyLlama 1.1B チャット モデルをテストするには、まず量子化されたバージョンをダウンロードする必要があります。ダウンロードするには、次のコードを実行します。
from huggingface_hub import hf_hub_download
# specifying the model name
model_name = "TheBloke/TinyLlama-1.1B-Chat-v1.0-GGUF"
# specifying the type of quantization of the model
model_file = "tinyllama-1.1b-chat-v1.0.Q8_0.gguf"
# download the model by specifying the model name and quantized model name
model_path = hf_hub_download(model_name, filename=model_file)
ここで、 ハグ_フェイス_ハブ ライブラリは量子化モデルをダウンロードするプロセスを処理します。このために、 hf_hub_download これは次のパラメータを受け取ります。
- モデル名: この変数に、ダウンロードしたいモデルを渡します。ここでは、TinyLlama 1.1B Chat GGUF モデルをダウンロードします。
- モデルファイル: ここでは、ダウンロードする量子化モデルのタイプを指定します。ここでは、TinyLlama 8B Chat の 1.1 ビット量子化バージョンをダウンロードします。
- 最後に、これらのパラメータを hf_hub_download、これらのパラメーターを受け取り、指定されたモデルをダウンロードします。ダウンロード後、モデルがダウンロードされたパスを返します。
- 返されたこのパスは、 モデルパス 変数に保存します.
これで、このモデルを次の方法でロードできます。 ラマ_cpp_python 図書館。モデルをロードするコードは以下のようになります。
from llama_cpp import Llama
llm = Llama(
model_path=model_path,
n_ctx=512, # the number of i/p tokens the model can take
n_threads=8, # the number of threads to use
n_gpu_layers=40# how many layers of the model to offload to the GPU
)
私たちが輸入するのは、 ラマ からのクラス ラマ_cpp、次のパラメータを受け取ります
- モデルパス: この変数は、モデルが保存されているパスを受け取ります。前のステップでパスを取得したので、それをここで提供します。
- n_ctx: ここで、モデルのコンテキストの長さを指定します。現時点では、コンテキストの長さとして 512 トークンを提供しています。
- n_スレッド: ここで、によって使用されるスレッドの数について言及します。 ラマ class
- n_gpu_layers: 実行中の GPU がある場合はこれを指定します。無料の colab の場合はこれを指定します。これには 40 を渡します。これは、モデル全体を GPU にオフロードし、その一部をシステム RAM で実行したくないことを意味します。
- 最後に、これからオブジェクトを作成します ラマ クラスを作成し、それを変数llmに渡します
このコードを実行すると、TinyLlama 1.1B Chat 量子化モデルが GPU にロードされ、適切なコンテキスト長が設定されます。ここで、このモデルに対していくつかの推論を実行します。このために、以下のコードを使用します
output = llm(
"<|im_start|>usernWho are you?<|im_end|>n<|im_start|>assistantn", # User Prompt
max_tokens=512, # Number of output tokens generated
stop=["</s>"], # Token which tells the LLM to stop
)
print(output['choices'][0]['text']) # Model generated text
モデルを推論するには、次のパラメータを LLM に渡します。
- プロンプト/チャット テンプレート: これは、モデルとチャットするために必要なプロンプト テンプレートです。上記テンプレート(つまり、 ) は、TinyLlama 1.1B チャット モデルで機能するものです。テンプレートでは、User の後の文が User Prompt であり、Assistant の後に生成されます。
- max_tokens: この変数には、プロンプトが表示されたときに大規模言語モデルが出力できるトークンの最大数を定義する値を渡します。現時点では、トークンを 512 個に制限しています。
- やめる: この変数に停止トークンを渡します。停止トークンは、大規模言語モデルにさらなるトークンの生成を停止するように指示します。 TinyLlama 1.1B チャットの場合、停止トークンは次のとおりです。
これを実行すると、生成されたテキストが出力変数に保存されます。結果は、OpenAI API 呼び出しと同様の形式で生成されます。したがって、OpenAI 応答から世代にアクセスする方法と同様に、指定された print ステートメントを通じて世代にアクセスできます。生成された出力は以下で確認できます。
このサイズのモデルとしては、生成されるレスポンスは最高のものです。このサイズのモデルではこれは予想外です。文法も口調も全く問題なく、文を繰り返した形跡もありません。モデルの推論機能をテストしてみましょう
output = llm(
"<|im_start|>usernIf all students who study hard get good grades,
and John got good grades, can we conclude that John studied hard?
<|im_end|>n<|im_start|>assistantn",
max_tokens=512,
stop=["</s>"],
)
print(output['choices'][0]['text'])
output = llm(
"<|im_start|>usernHow fast can a snake fly?n<|im_end|>n<|im_start|>assistantn",
max_tokens=512,
stop=["</s>"],
)
print(output['choices'][0]['text'])
ここまでは順調ですね。これまで見てきた例から、モデルは適切な答えを生成します。ただし、限られた数の質問に対してのみテストするため、これがすべての場合に当てはまるわけではありません。モデルの数学的推論機能をテストしてみましょう
output = llm(
"<|im_start|>usernJohn is twice as old as Sarah, and Sarah is three years
older than Mary. If Mary is 10 years old, how old is John?n<|im_end|>n<|im_start|>assistantn",
max_tokens=512,
stop=["</s>"],
)
print(output['choices'][0]['text'])
output = llm(
"<|im_start|>usernWhat is the missing number in this pattern:
1, 4, 9, 16, __, 36?n<|im_end|>n<|im_start|>assistantn",
max_tokens=512,
stop=["</s>"],
)
print(output['choices'][0]['text'])
これまで見てきた例から、TinyLlamaChat は数学における単純な適性の質問に答える能力が非常に低いことは明らかです。モデルが数学データセットで事前トレーニングされていないため、これは想定内のことです。生成の品質は、数学データセットで微調整することで改善できます。
微調整に関して言えば、TinyLlama は、ハードウェアが限られていて、特定のデータセットで大規模な言語モデルを微調整したい人にとって頼りになる選択肢です。
潜在的なユースケースとアプリケーション
コンパクトなサイズを考えると、 タイニーラマは 1.1 億のパラメータを誇りますが、そのアプリケーションは主に、ハードウェアの制限や効率の向上により、より大きなモデルが実現できない環境に適しています。サイズを考慮した具体的な使用例をいくつか示します。
モバイルアプリケーション: TinyLlama はサイズが小さいため、デバイス上での処理が必要なモバイル アプリに統合するのに適しています。これには、言語翻訳アプリ、パーソナル アシスタント機能、スマートフォン上で効率的に動作できるチャットボットが含まれます。
IoT デバイスの組み込みシステム: モノのインターネット (IoT) 分野では、コンピューティング リソースが限られていることがよくあります。 TinyLlama を使用すると、スマート ホーム アシスタント、ウェアラブル技術、その他の接続機器などのさまざまな機器にインテリジェントな言語処理機能を追加できます。
エッジコンピューティング: 集中化されたクラウド環境ではなく、ソースに近い場所でデータを処理することでメリットが得られるアプリケーションの場合、TinyLlama を効果的に使用できます。これには、自動車システム、製造装置、その他のエッジ デバイスにおけるリアルタイム言語処理が含まれます。
低リソース言語の研究: TinyLlama は、サイズが小さく、計算要件が低いため、言語研究、特に大規模なモデルのトレーニングが不可能なリソース不足の言語の研究において貴重なツールとなり得ます。
教育ツール: 教育現場、特にハイエンド コンピューティング リソースへのアクセスが制限されている教育現場では、TinyLlama を使用して言語学習アプリ、インタラクティブな教育ツール、その他の学習支援ツールを開発できます。
中小企業向けのコンテンツ生成: リソースが限られている中小企業は、大規模なコンピューティング能力を必要とせずに、TinyLlama を使用して製品説明、マーケティング コピー、顧客対応などのコンテンツを生成できます。
プロトタイピングと実験: 言語モデルを試したいが高性能のコンピューティング リソースにアクセスできない開発者や研究者は、TinyLlama を使用して新しい NLP アプリケーションのプロトタイプを作成し、開発できます。
効率的なデータ分析: TinyLlama は、顧客のフィードバック、アンケートの回答、ソーシャル メディアでのやり取りの分析など、迅速かつ効率的な処理が必要なシナリオでのテキスト分析とデータ抽出に使用できます。
まとめ
TinyLlama 1.1B は、AI と自然言語処理の分野における進歩の証です。その開発と広く利用できることは、より効率的で小規模で迅速な推論言語モデルを作成するために不可欠です。 TinyLlama 1.1B は、より小さいパラメータ フットプリントと堅牢なパフォーマンスのバランスをとることで、幅広いアプリケーション向けの強力で実用的なモデルに対する重要なニーズに応えます。人間のような方法で言語を理解し、生成する機能を備えながら、さまざまなコンピューティング環境に十分対応できる軽さがあるため、マシン上で大規模言語モデルを実行するのに苦労している人にとって頼りになる選択肢となります。モデルはデータセット上で簡単に微調整でき、限られたコンピューティング リソースでトレーニングできます。
この記事の重要なポイントは次のとおりです。
- 効率性を重視して設計された TinyLlama 1.1B は、計算リソースが限られているユーザーを含む幅広いユーザーが利用できるため、いくつかのアプリケーションに適しています。
- このモデルは、3 個の A90-16G GPU を使用した 100 日間にわたる 40 兆トークンのトレーニングを含む、広範なトレーニング プロセスを経ました。
- TinyLlama 1.1B は、サイズが小さいにもかかわらず、高品質で文脈に応じた応答を複数の言語で提供するため、検討すべきモデルとなっています。
- モバイル アプリケーション、IoT 機器、教育ツールなどに適しており、コンパクトなサイズと効率により幅広い用途に使用できます。
- 計算要件が低いため、言語研究、特にリソースが不足している言語の研究において貴重なツールとなります。
- このモデルは、主に計算能力が限られている環境で、言語モデルを実験したり、新しい NLP アプリを開発したりする人に適しています。
よくある質問
A. TinyLlama 1.1B は、1.1 兆のトークンでトレーニングされた 3 億のパラメータを備えたコンパクトで効率的な大規模言語モデルであり、計算リソースが限られたアプリケーションに適しています。
A. Slimpajama や Starcoderdata を含むデータセット上で 90 台の A16-100G GPU を使用し、自然言語とコードの比率 40:7 で 3 日間にわたってトレーニングされました。
A. TinyLlama 1.1B は、複雑な言語タスクを処理するスキルを示し、HellaSwag、MMLU、WinoGrande などのベンチマーク全体で平均 52.99 点を獲得しました。
A. サイズと速度が重要な問題となるアプリケーションに適しています。これらには、モバイル アプリ、ホーム オートメーション デバイスなどの IoT 機器、中小企業向けのコンテンツ生成、効率的なデータ分析が含まれます。
A. 新しい NLP アプリケーションのプロトタイピングや開発のための高性能コンピューティング リソースにアクセスできない開発者や研究者にとって、これは間違いなく完璧な選択肢です。 TinyLlama モデルは Raspberry Pi マシンでも実行できます。
A. さまざまな言語タスクでは非常に優れていますが、数学的推論には限界があり、関連するデータセットを微調整することで改善できます。
この記事に示されているメディアは Analytics Vidhya が所有するものではなく、著者の裁量で使用されています。
関連記事
- SEO を活用したコンテンツと PR 配信。 今日増幅されます。
- PlatoData.Network 垂直生成 Ai。 自分自身に力を与えましょう。 こちらからアクセスしてください。
- プラトアイストリーム。 Web3 インテリジェンス。 知識増幅。 こちらからアクセスしてください。
- プラトンESG。 カーボン、 クリーンテック、 エネルギー、 環境、 太陽、 廃棄物管理。 こちらからアクセスしてください。
- プラトンヘルス。 バイオテクノロジーと臨床試験のインテリジェンス。 こちらからアクセスしてください。
- 情報源: https://www.analyticsvidhya.com/blog/2024/01/tinyllama-1-1b-size-doesnt-matter/
- :持っている
- :は
- :not
- :どこ
- $UP
- 1
- 10
- 11
- 12
- 16
- 1b
- 36
- 40
- 52
- 7
- 9
- 90
- a
- 能力
- 能力
- 絶対に
- アクセス
- 達成する
- 達成
- 越えて
- 加えます
- アドレス
- 進歩
- 後
- AI
- エイズ
- 目指して
- 整列する
- 整列
- すべて
- 許す
- 許可
- また
- an
- 分析
- 分析論
- 分析Vidhya
- 分析する
- および
- 応答
- 回答
- どれか
- API
- 適切な
- アプリ
- アーク
- です
- 配列
- 記事
- 人工の
- 人工知能
- 人工知能と機械学習
- AS
- 側面
- 評価する
- アシスタント
- アシスタント
- At
- 聴衆
- オートメーション
- 自動車
- 賃貸条件の詳細・契約費用のお見積り等について
- 利用できます
- 平均
- バランシング
- BE
- なぜなら
- さ
- 以下
- ベンチマーク
- ベンチマーク
- 恩恵
- より良いです
- の間に
- 10億
- XNUMX億トークン
- ブログソン
- 誇る
- 広い
- より広い
- ビジネス
- 焙煎が極度に未発達や過発達のコーヒーにて、クロロゲン酸の味わいへの影響は強くなり、金属を思わせる味わいと乾いたマウスフィールを感じさせます。
- by
- コール
- 呼ばれます
- came
- 缶
- 機能
- 機能
- これ
- 場合
- 例
- 応じます
- 集中型の
- 課題
- チャット
- チャットボット
- AI言語モデルを活用してコードのデバッグからデータの異常検出まで、
- 選択
- 選択肢
- クリア
- クローザー
- クラウド
- コード
- コーディング
- コヒーレント
- 組み合わせた
- コンパクト
- 複雑な
- 包括的な
- 計算的
- 計算能力
- コンピューティング
- コンピューティングパワー
- 結論
- 交流
- 検討
- 考慮
- 制約
- 消費
- 含まれています
- コンテンツ
- コンテキスト
- 文脈
- 会話
- 会話
- 基本
- 対応
- 作ります
- 作成
- 重大な
- 重大な
- 顧客
- データ
- データ分析
- データセット
- 日
- 定義する
- 挑む
- 配信する
- 提供します
- 掘り下げる
- 民主化する
- 実証します
- 設計
- にもかかわらず
- 開発する
- 開発者
- 開発
- 開発
- Devices
- 異なります
- 裁量
- 異なる
- do
- ありません
- そうではありません
- 行われ
- ダウンロード
- ダウンロード
- 原因
- e
- 各
- 簡単に
- エッジ(Edge)
- 教育の
- 効果的に
- 効率
- 効率的な
- 効率良く
- 出てくる
- 採用
- 魅力的
- 十分な
- 全体
- 環境
- 環境
- エポック
- 装置
- 時代
- 特に
- エーテル(ETH)
- さらに
- 例
- 期待
- 予想される
- 実験
- 探る
- 広範囲
- 抽出
- 非常に
- 顔
- 遠く
- 魅惑的な
- スピーディー
- 実行可能な
- 特徴
- 特徴
- フィードバック
- フィールド
- 終わり
- 名
- 焦点を当て
- フォロー中
- フットプリント
- 形式でアーカイブしたプロジェクトを保存します.
- 無料版
- から
- さらに
- 生成する
- 生成された
- 生成
- 生成
- 世代
- 取得する
- 受け
- 与える
- 与えられた
- グローバル化
- 行って
- 良い
- でログイン
- だ
- GPU
- GPU
- 文法
- 大きい
- 成長
- 半分
- ハンドル
- ハンドリング
- ハード
- Hardware
- 持ってる
- それゆえ
- こちら
- ハイ
- ハイエンド
- 高品質
- ホーム
- ホームオートメーション
- 認定条件
- HTTPS
- i
- if
- 実装する
- 実装
- import
- 重要
- 改善されました
- in
- include
- 含ま
- 含めて
- 個人
- 情報
- 当初
- 革新します
- install
- 統合
- インテリジェンス
- インテリジェント-
- 相互作用
- 相互作用的
- 相互作用する
- 中級
- インターネット
- モノのインターネット
- に
- 複雑な
- IOT
- IoTデバイス
- 問題
- IT
- ITS
- 自体
- John Redfern
- ただ
- 保管
- 保管
- キー
- 既知の
- クマー
- 欠如
- 風景
- 言語
- ESL, ビジネスESL <br> 中国語/フランス語、その他
- 大
- 大規模
- より大きい
- 層
- 学習
- 長さ
- less
- 光
- ような
- 制限
- 限定的
- 限られたアクセス
- ラマ
- 負荷
- ローディング
- 見て
- 下側
- 機械
- 機械学習
- マシン
- 主に
- make
- 作る
- 作成
- 方法
- 製造業
- 多くの
- マーク
- マーケティング
- メアリー
- math
- 数学的
- 問題
- 最大幅
- 五月..
- メディア
- 言及
- かもしれない
- 行方不明
- モバイル
- モバイルアプリ
- モバイルアプリ
- モデリング
- モデル
- 他には?
- もっと効率的
- の試合に
- 名
- ナチュラル
- 自然言語
- 自然言語処理
- 必要
- 必要
- 必要とされる
- 新作
- NLP
- いいえ
- 注目に値する
- 今
- 数
- Nvidia
- オブジェクト
- 得
- of
- 頻繁に
- 古い
- 古い
- on
- ONE
- の
- オープンソース
- OpenAI
- 操作する
- or
- その他
- その他
- 私たちの
- でる
- 出力
- が
- 所有している
- パラメーター
- パラメータ
- 部
- 特に
- パス
- path
- パターン
- パターン
- のワークプ
- 完璧
- 完璧に
- 実行する
- パフォーマンス
- 実行する
- 個人的な
- 相
- 場所
- プラットフォーム
- プラトン
- プラトンデータインテリジェンス
- プラトデータ
- 位置
- 強力な
- 潜在的な
- 電力
- 強力な
- 実用的
- 前
- 印刷物
- プロセス
- 処理
- プロダクト
- プロジェクト
- プロトタイプ
- プロトタイピング
- 提供します
- 提供
- 公表
- 置く
- Python
- 品質
- 質問
- クイック
- すぐに
- ラズベリー
- ラズベリーパイ
- むしろ
- 比
- 読む
- への
- 本当に
- に対する
- リリース
- 関連した
- 顕著
- 要件
- 研究
- 研究者
- リソースを追加する。
- リソース
- 応答
- 回答
- 制限されました
- 結果
- 結果
- 収益
- 明らかに
- 堅牢な
- ラン
- ランニング
- 保存されました
- シナリオ
- 科学
- スコア
- スコア
- 得点
- セクション
- 見て
- 文
- セッションに
- 設定
- いくつかの
- 示す
- 作品
- 符号
- 同様の
- 簡単な拡張で
- サイズ
- スキル
- 小さい
- 中小企業
- より小さい
- スマート
- スマートホーム
- スマートフォン
- So
- 社会
- ソーシャルメディア
- 一部
- ソース
- 特定の
- 指定の
- スピード
- 驚異的な
- スタンド
- 開始
- 最先端の
- ステートメント
- 手順
- ステップ
- まだ
- Force Stop
- 保存され
- 苦労して
- 生徒
- 研究
- 勉強
- スタイル
- そのような
- 適当
- Survey
- SVG
- 素早く
- 合成
- システム
- テーブル
- 取る
- まとめ
- 撮影
- 取り
- タスク
- チーム
- テク
- テクノロジー
- 伝える
- template
- test
- 遺言
- テスト
- テスト
- 클라우드 기반 AI/ML및 고성능 컴퓨팅을 통한 디지털 트윈의 기초 – Edward Hsu, Rescale CPO 많은 엔지니어링 중심 기업에게 클라우드는 R&D디지털 전환의 첫 단계일 뿐입니다. 클라우드 자원을 활용해 엔지니어링 팀의 제약을 해결하는 단계를 넘어, 시뮬레이션 운영을 통합하고 최적화하며, 궁극적으로는 모델 기반의 협업과 의사 결정을 지원하여 신제품을 결정할 때 데이터 기반 엔지니어링을 적용하고자 합니다. Rescale은 이러한 혁신을 돕기 위해 컴퓨팅 추천 엔진, 통합 데이터 패브릭, 메타데이터 관리 등을 개발하고 있습니다. 이번 자리를 빌려 비즈니스 경쟁력 제고를 위한 디지털 트윈 및 디지털 스레드 전략 개발 방법에 대한 인사이트를 나누고자 합니다.
- より
- それ
- ソース
- アプリ環境に合わせて
- そこ。
- ボーマン
- 物事
- この
- それらの
- 三
- 介して
- 従って
- 時間
- 〜へ
- 今日の
- トークン
- トークン
- TONE
- 取った
- ツール
- 豊富なツール群
- トピック
- 訓練された
- トレーニング
- インタビュー
- 1兆
- true
- 試します
- Twice
- type
- わかる
- 理解する
- 受けた
- 予期しない
- ユニーク
- 異なり、
- つかいます
- 中古
- ユーザー
- 活用する
- 貴重な
- 値
- 変数
- バージョン
- 極めて重要な
- 欲しいです
- ました
- 仕方..
- we
- ウェアラブルな
- webp
- した
- この試験は
- いつ
- which
- while
- 誰
- ワイド
- より広い
- 広範囲
- 意志
- 無し
- 仕事
- 作品
- 世界
- 年
- 貴社
- ゼファーネット