サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
TGS2024
www.insurtechlab.net
プレスリリースで「LLMをオープンソースで公開します!」なんてものが流れてくると、自宅のPCで動かしたみたいと思ったりしませんか? 「Amazon SageMakerやGoogle Colabがあるから必要だと思わない」「どうせStable DuffusionのようにVRAM不足で落ちるんでしょ?」、ま、まあそういう面は確かにあるのですが、世の中にはCPUだけで動かしてしまう仕組みもあるのです。CPUだったら自宅PCにも必ず乗っている、つまり、ローカルで動くということです。 ここで紹介する「llama-cpp-python」はその一つです。もちろんCPUだけで動きますが、NVIDIA GeForceのカードが刺さったPC(きっとゲーミングPC)であればもっと快適に動かすオプションもあり、有償版のサービスに手を出す前に、LLMを使って遊びたい方には良いプロダクトだと思います。 llama-c
こんにちは、アオキです。前回の「Amplify StudioのUI Kitをカスタマイズしてみた」ではFigmaでモックアップをつくりました。 続いてAWS Amplify CLIを使ってコマンドを実行するとFigmaからAmplify Studioに取り込んだ画面データがローカルにソースコードとして取り込むことができます。 今回構築したアプリケーションでは、JavaScriptのフレームワーク「React」を採用したのですが、ローカルに取り込んだ画面コンポーネントに対して画面遷移やバリデーションなどのロジックを加え、ブラウザで動作するようプロトタイプを作っていきました。 さらにBtoCのWebアプリケーションを運用するのに欠かせない、アクセス解析ツール「Googleアナリティクス」を導入することになったのですが、ReactはSPAを開発するのが得意なフレームワークなのでSPAで作ったので
このページを最初にブックマークしてみませんか?
『www.insurtechlab.net』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く