エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
TorchServe を使用して Pytorch のディープラーニングモデルをホストしてみた - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
TorchServe を使用して Pytorch のディープラーニングモデルをホストしてみた - Qiita
はじめに TorchserveはAWSとFacebookが連携して開発したPyTorchのオープンソースモデルサービスライブラ... はじめに TorchserveはAWSとFacebookが連携して開発したPyTorchのオープンソースモデルサービスライブラリです。Pytorchで記述したモデルクラスと重みファイルを与えるだけでホストを可能にし、APIエンドポイントを提供してくれます。Inference APIで推論を、Management APIでモデルの管理ができます。 詳細はTorchServeのドキュメントを参照してください。 Amazon Web Services ブログの「TorchServe を使用した大規模な推論のための PyTorch モデルをデプロイする」を読んでAWS EC2上でTorchserveを実行してみました。以下では手順とその周辺の話、dockerでの実行を紹介します。 参考 TorchServe を使用した大規模な推論のための PyTorch モデルをデプロイする 手順 EC2インスタ