エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
【SageMaker】TorchServeのネイティブサポートを利用したPyTorchモデルのデプロイ - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
【SageMaker】TorchServeのネイティブサポートを利用したPyTorchモデルのデプロイ - Qiita
以前の記事で、SageMaker Training JobsによるTabBERTモデルのFine-Tuningを行いました。 Fine-Tuning済... 以前の記事で、SageMaker Training JobsによるTabBERTモデルのFine-Tuningを行いました。 Fine-Tuning済モデルをS3にアップロードすることができたので、今回はSageMakerでモデルのデプロイをしてみました。 TorchServe 作成した機械学習モデルを推論システムとして使うためには以下の要素が必要となります。 学習済みの機械学習モデル 学習済みモデルに入力する特徴量作成の処理(特徴量生成、トークン化) 外部システムから学習済みモデルを利用するためのインタフェース(I/F) これらの機能をまとめて提供するのがモデルサービングライブラリで、TensorFlowモデルであればTensorFlow Serving、PyTorchモデルであればTorchServeといったものがあります。 TorchServeを使うと、機械学習モデルのデプロイで課題