エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
大規模言語モデル(LLM)で話し相手を(全部ローカルで)作ってみた | cloud.config Tech Blog
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
大規模言語モデル(LLM)で話し相手を(全部ローカルで)作ってみた | cloud.config Tech Blog
2023年最後のブログ投稿、GPU有効活用シリーズの第3弾です。 第1弾、第2弾はこちらからどうぞ→前編 後編... 2023年最後のブログ投稿、GPU有効活用シリーズの第3弾です。 第1弾、第2弾はこちらからどうぞ→前編 後編 第2弾 今年から一人暮らしを始めたのですが、家にいると思っている以上に口から何かを発することが無いことに気づきました。 Discordなりで家にいても人と会話することができないわけではないのですが、わざわざ人を呼び出すのも気が引けます。 なので最近流行りのLLMに話し相手になってもらうことにしました。 前提条件すべてローカルで完結すること。 会話文の生成はChatGPTやAzure Open AI、最近はAmazon bedrockなど、Speech to TextやText to SpeechもAzure、AWS、GCPと大抵のクラウドにAPIはありますが、せっかくLLMをローカルで動かすのだからどうせなら全部ローカルにしようとなりました。 なので"どこどこのAPIの方が性能い