エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
【UiPath】AWS/Azure仮想マシンでローカルLLM環境を構築する - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
【UiPath】AWS/Azure仮想マシンでローカルLLM環境を構築する - Qiita
はじめに 最近 Llama 3 やら Phi-3 やら Gemma 2 やらでローカルLLM界隈が盛り上がってきています。 「... はじめに 最近 Llama 3 やら Phi-3 やら Gemma 2 やらでローカルLLM界隈が盛り上がってきています。 「自分でもローカルLLMを試したい!けどGPU搭載のマシンが手元にない!」 という方のために、AWSやAzureでローカルLLMを動かすのための手順をまとめてみました。 またOllama APIをPython, REST API, UiPath Studioからコールする方法についても紹介したいと思います。 大まかな流れは次の通りです。 仮想マシン構築 : Amazon EC2またはAzure Virtual MachineでGPU搭載の仮想マシンを立てる ドライバーなどのインストール : NVIDIAのドライバーとCUDAライブラリーをインストールする Dockerコンテナとモデルのデプロイ : DockerをインストールしてOllama・モデルとOpen WebU

