タグ

ブックマーク / note.com/shi3zblog (8)

  • これは21世紀の着せ替え人形か!?どんな服も着せられるAIが登場|shi3z

    アリババが開発した「Outfit Anyone」は、あらかじめ指定されたモデルに好きな服を着せることができるAIだ。 Animate Anyoneと組み合わせてアニメーションにもできる。 このサイトでデモを試せる たとえば、あらかじめ用意されている服を上と下で選ぶと、組み合わせて着てくれる しかし、上着はワンピース対応なので、わけのわからん忍者のコスチュームとかを指定しても着てくれる。 着せる人は、男女数名のモデルから選べる。 ただし、モデルを用意されてない人に変えることは不可能っぽい 解析班の解析が待たれる。 これがすごいのは、これさえあれば服の着せ替え用のLoRAとかいらなくなることだ。また、家のサイトではワンピースの登場人物を着せ替えて、さらに踊らせるなどもしているので、アリババが今後どんな遊び方を考えているのか想像するだけで楽しい。ソース公開してくれないかな

    これは21世紀の着せ替え人形か!?どんな服も着せられるAIが登場|shi3z
  • Copilot Studioを使ってみた。注意点と実際にかかるお金の話など|shi3z

    Copilot StudioはMicrosoft 365 E5というお高いパッケージに入らないとプレビュー版すら使えないらしい。 仕方ないので会社で入りましたよ。会社に所属してるのは3人だけど、E5だと25人分のアカウントがついてくる。 しかし!!! 金さえ払えば使えるというほどイージーなものではなかったので皆さんにお伝えします。ちなみにE5に入っただけで月額45000円(1800円x25で)になりました(ただし七日間の試用期間中にキャンセルすれば無料に)。 まずMicrosoft365で企業アカウントを作り、会社のメンバー的な人に個人アカウントを発行します(この時点でかなりハードルが高い)。 そしてCopilot Studioのページからリンクに飛べば、企業の個人アカウントでログインできた。やったぜ! しかしログインしても、様子がおかしい。 なんかフローチャートが出てきて、フローチャート

    Copilot Studioを使ってみた。注意点と実際にかかるお金の話など|shi3z
  • 無償LLM 日本語能力ベンチマークまとめ(23/11/15)|shi3z

    日々新しいオープンソースのLLMまたはllama2のような無償使用可能なLLMが出てくるので定期的にベンチマークをとって性能評価をまとめておきます。新しい日語対応LLMが出るたびに更新していきます。 23/11/15Japanese-MT-BenchRWKV-V5-World-1.5Bを追加。他の3Bモデルと遜色ない性能 RWKV-V5-World-v2-3Bを追加 もちろん1.5Bよりは高性能だが倍の性能というわけではなさそう23/11/9Japanese-MT-BenchGPT-4-Turbo-1106のベンチマークを追加。コーディング能力が大幅に向上 23/11/7Japanese-MT-BenchGPT-3.5-Turbo-1106がリリースされたので追加 23/11/5Japanese-MT-BenchOpenCALM2-7B-Chatがfloat16で計測していたので、bfl

    無償LLM 日本語能力ベンチマークまとめ(23/11/15)|shi3z
  • AI搭載コードエディタCursorが快適すぎる|shi3z

    VScodeよりもさらに過激にAIを取り入れたコードエディタであるCursorが面白そうだったので試してみたところ、もうSublime Textちゃんに戻れない体になってしまったかもしれない。 VScodeの場合は、あくまでもコードは補完されるもの。 それに対して、Cursorは、VScodeのコード補完的な機能に加えて、コードについて相談できる。 日語で語りかけることも可能。返事が英語になっちゃうこともあるけどご愛嬌。シェルも内蔵されているのでアプリを切り替えることなくコードを実行できる ディレクトリ内の複数のファイルを見てくれるのでもっと高度なことも頼めるのかもしれない。スネークゲームを作ってくれと言ったらPythonでうごくテキストベースのスネークゲームを作ってくれた 個人的にはHHKB Studioとの相性がとてもいい気がする。全てホームポジションから全く手を離さずに操作できる。

    AI搭載コードエディタCursorが快適すぎる|shi3z
  • 注目の日本語大規模モデルLLM-JP 13Bを試す(JSON吐けた)|shi3z

    国立情報学研究所が作ったLLM-JP 13Bが公開されていたので早速試してみた。色々なモデルが公開されているが、全部盛りっぽい 「llm-jp/llm-jp-13b-instruct-full-jaster-dolly-oasst-v1.0」を試す。 マシンはもちろんドスパラ製Memeplexマシン(A6000x2)だ。 import torch from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("llm-jp/llm-jp-13b-instruct-full-jaster-dolly-oasst-v1.0") model = AutoModelForCausalLM.from_pretrained("llm-jp/llm-jp-13b

    注目の日本語大規模モデルLLM-JP 13Bを試す(JSON吐けた)|shi3z
  • GPTのモデル構造を可視化した|shi3z

    GPTのモデル構造を目で見てみたい! そんな気持ち、わかるでしょ? 技研フリマをやりながら、どうにかこうにか出力したよ ご覧あれ やり方メモ from transformers import AutoTokenizer, AutoModelForCausalLM from torchviz import make_dot tokenizer = AutoTokenizer.from_pretrained("gpt2") from transformers import pipeline, set_seed generator = pipeline('text-generation', model='gpt2') m= generator.model x= m.generate() y= m.forward(x) image = make_dot(y.logits, params=dict(

    GPTのモデル構造を可視化した|shi3z
  • 完全フリーで3GBのVRAMでも超高速に動く14B大規模言語モデルRWKVを試す|shi3z

    Transformerは分散できる代償として計算量が爆発的に多いという不利がある。 一度みんなが忘れていたリカレントニューラルネットワーク(RNN)もボケーっとしている場合ではなかった。 なんと、GPT3並の性能を持つ、しかも完全にオープンな大規模言語モデルが公開されていた。 そのなもRWKV(RuwaKuvと発音しろと書いてある。ルワクフ?) RWKVはRNNなのでGPUメモリをそれほど大量に必要としない。 3GBのVRAMでも動くという。 時間がない方はビデオをご覧ください 僕の失敗は、何も考えずにgit lfs installでディレクトリごとコピーしようとしたこと。 このディレクトリには過去のモデルデータが全部あるので、ひとつ30GBのモデルデータを何十個もダウンロードしようとしていて終わらなかったのだ。 モデルデータは一とつあれば十分なのでひとつだけにする。 次に、chatのリポ

    完全フリーで3GBのVRAMでも超高速に動く14B大規模言語モデルRWKVを試す|shi3z
  • GPT-4使ってみた|shi3z

    意外とあっさり公開されたGPT-4。 ChatGPT Plus(月額20ドル)に課金すると使えるらしいので早速使ってみた。 動画は以下 動画を聞き流しながら文を読むのを推奨します まず物語を考えさせてみる。 プロンプト Aという主人公がなんらかの出来事を経験して、自分の能力を使ってA’という状態になった  というのが物語である UberEats配達員を主人公とした物語のあらすじをひとつ考えてみてください これに対する回答 物語のタイトル: 『配達の軌跡:A'への変容』 あらすじ: Aは、ごく普通のUberEats配達員として日々働いていた。ある日、彼が配達をしている途中で、謎の小包が彼のバッグに入っていることに気付く。好奇心に駆られたAは、その小包を開けてしまう。中から現れたのは、謎の古びた護符だった。 その護符を手にした瞬間、Aは突如として特別な能力を手に入れる。彼は時間を操作できるよ

    GPT-4使ってみた|shi3z
  • 1