サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
買ってよかったもの
note.com/educator
なぜ、こんなことを思われるかもしれないが、自宅のPCはグラボは積まれているが、とてもではないがAIの分野で処理されている性能はない。従って、GPUを使わず、CPUとメモリで処理させたいという要望が出てきた。奇跡的にCPUで処理させているツワモノがいたので、ありがたく使用するためのモデルの変換である 前提Windowsのメモリは16GBはあった方がいい。ざっくり、モデルを使用したときに10GB程度は間違いなく消費しているので、それより下は難しいかもしれない 今回のプログラムではCPUで処理させた。高いGPUを買うよりはマシかとLlamaのモデルのダウンロードが完了していること 事前準備後述するが、llama.cppを使用するにあたり記載のあった w64devkitのfortranを含むzip(w64devkit-fortran-1.20.0.zip)をダウンロードして解凍しておくこと。実はf
このページを最初にブックマークしてみませんか?
『note.com』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く