エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
ローカルLLMをCore MLモデルに変換する - huggingface/exporters の使い方|shu223
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
ローカルLLMをCore MLモデルに変換する - huggingface/exporters の使い方|shu223
Llama 2などのLLMモデルもこれを用いて変換されたようだ(あるいは、その変換の過程で得られた知見がこ... Llama 2などのLLMモデルもこれを用いて変換されたようだ(あるいは、その変換の過程で得られた知見がこのツールに盛り込まれている) 公開されている変換済みモデルは、試してみたもののまだモバイル端末には大きすぎたので、 もっと小さいモデルを自前で変換したらよいかもしれない、と思い exporters ツールを使ってみることにした。 なお、同記事で紹介されている "transformers-to-coreml conversion Space" は、2024年3月3日現在 500 エラーがでていて利用できない(試せないので詳細は不明だが、exportersをWebサービス化してGUIから操作できるようにしたものと思われる)。 インストールgit clone してきて、 $ cd exporters $ pip install -e .だけでOK。(venvで仮想環境は作った) とりあえず変