タグ

ブックマーク / note.com/shi3zblog (12)

  • GPT-3.5-Turbo / GPT-4-Turbo 1106のJSONモードの使い方|shi3z

    時間未明(午前三時)ものすごいスピードで語られたOpenAI初の開発者向けイベントDevDayで発表されたGPT-4-TurboとGPT-3.5-TurboによるJSONモード。 これはものすごく強力なんだけど、Python APIによる使い方がどこにも描いてないので試行錯誤の末見つけましたので共有いたします。 from openai import OpenAI import openai import os openai.api_key = "<APIキー>" client = OpenAI() def gpt(utterance): #response = openai.chat( response = client.chat.completions.create( #model="gpt-4-1106-preview", model="gpt-3.5-turbo-1106", r

    GPT-3.5-Turbo / GPT-4-Turbo 1106のJSONモードの使い方|shi3z
    shunkeen
    shunkeen 2023/11/08
    Web画面のChatGPT PlusでもデフォルトでないとGPT-4V(画像添付)が使えないから、visionと他機能の併用はいろいろ厳しいのかな?
  • 数式は触ってみないと何も分からない|shi3z

    数式って不便すぎないか? いやわからん。 俺は数学苦手だから。 でも例えば、プログラミング言語は、現代普通に使われるものだけ挙げても、C#、JavaScriptRubyPythonPHPJavaSwiftとまあ軽く7種類くらい。C系で言えば、C、C++もあるし、C++もバージョンによってはほとんど別物になったりする。プログラミング言語ではない人工言語としても、HTMLSQL、VHDL・・・アセンブリ言語などがあり、使う人は少ないが恩恵に預かってる人が多い言語で言うとLISPやHaskellなんてのもある。 しかもこれらのプログラミング言語は、すべて「同じアルゴリズム」を記述することが可能なのだ。 「同じことを説明するのに複数の方法(言語)がある」と言うことが一体何の意味があるのか、プログラマー以外の人にはわかりにくいだろうが、プログラマーにとっては大問題である。 それぞれのプロ

    数式は触ってみないと何も分からない|shi3z
    shunkeen
    shunkeen 2023/06/23
    数学史とか、数学の哲学という分野があるけど、そういう学問を修めた人の話も聞いてみたい。
  • AIを学ぶのに必要な最低限の数学の知識は5つだけ!|shi3z

    最近、「AIを理解したくて代数幾何の教科書を勉強しているんですよ」という人によく会う。 五年前くらい前に、note株式会社の加藤社長も「社内で代数幾何学の勉強会を開いてるんですよ」と言っていた。僕はその都度「それは全く遠回りどころか明後日の方向に向かってますよ」と言うのだがなかなか聞き入れてもらえない。 確かに、AI、特にディープラーニングに出てくる用語には、ベクトルやテンソルなど、代数幾何学で使う言葉が多い。が、敢えて言おう。 代数幾何学とAIはほとんど全く全然何も関係していないと。 なぜこのような不幸な誤解が生まれてしまうかの説明は後回しにして、意地悪をしても仕方ないので、AIを理解するために最低限知っておかなければならない用語を5つだけ紹介する。 テンソル(スカラー、ベクトル、行列など)おそらく、「テンソル」という言葉が人々を全ての混乱に向かわせている。 Wikipediaの説明は忘

    AIを学ぶのに必要な最低限の数学の知識は5つだけ!|shi3z
    shunkeen
    shunkeen 2023/06/15
    “どんなことを知るのが最短距離なのか”/そこら辺を抑えるためのG検定なんじゃなかろうか。
  • GPTのモデル構造を可視化した|shi3z

    GPTのモデル構造を目で見てみたい! そんな気持ち、わかるでしょ? 技研フリマをやりながら、どうにかこうにか出力したよ ご覧あれ やり方メモ from transformers import AutoTokenizer, AutoModelForCausalLM from torchviz import make_dot tokenizer = AutoTokenizer.from_pretrained("gpt2") from transformers import pipeline, set_seed generator = pipeline('text-generation', model='gpt2') m= generator.model x= m.generate() y= m.forward(x) image = make_dot(y.logits, params=dict(

    GPTのモデル構造を可視化した|shi3z
    shunkeen
    shunkeen 2023/06/11
  • AGIまでの道のりはまだまだ長い|shi3z

    最近「やったぜこれでAGIだ」という言説を国内外でよく見かけるので私見を述べておく AGIとは、人工一般知能(Artificial General Intelligence)で、要は人間と同等の思考能力を持つ人工知能のこと。汎用人工知能とも言う。 この先にはASI、つまり人工超知能(Artificial Super Intelligence)がある。ASIの成立がいわゆる「シンギュラリティ」の到達条件と考えられていて、世の中は「シンギュラリティ」の実現を目指す、碇ゲンドウのようなヤバい連中で溢れている。 AGIが作れればAGIは人間と同等の知能を持っているため、あとは人間が努力しなくても自動的にASIを作ることができると考えられている。 したがって、ASIを作るためにまずAGIを作ろうじゃないか、というのがロングスパンの議論なのだが、今の大規模言語モデルしか持たない野蛮な人類が、それをもっ

    AGIまでの道のりはまだまだ長い|shi3z
    shunkeen
    shunkeen 2023/04/18
    “世の中は「シンギュラリティ」の実現を目指す、碇ゲンドウのようなヤバい連中で溢れている”/爆笑してしまったwww。強そうな専門用語が大衆化して弱い意味になっちゃう問題。
  • ご家庭のパソコンでLLMが動く!・・・またかよ|shi3z

    やっぱあれですな。 一度動いちゃうと後はもう雪崩のようですな。 そしてこっち側も新鮮味を感じなくなってしまうというか。 んで、ものすごくアッサリとうちのMacBookProで動きました。 量子化済みのモデルをダウンロードしてスクリプト動かすだけ! 工夫なし! Windowsでもいけると書いてある。しかもめちゃくちゃ高速 % ./gpt4all-lora-quantized-OSX-m1 main: seed = 1680064969 llama_model_load: loading model from 'gpt4all-lora-quantized.bin' - please wait ... llama_model_load: failed to open 'gpt4all-lora-quantized.bin' main: failed to load model from 'gp

    ご家庭のパソコンでLLMが動く!・・・またかよ|shi3z
    shunkeen
    shunkeen 2023/03/30
    “一度動いちゃうと後はもう雪崩のようですな。そしてこっち側も新鮮味を感じなくなってしまうというか。”/清水さんの動きが早すぎて、世間が驚きを感じる間も無く、清水さんが飽きてて笑った。
  • 完全フリーで3GBのVRAMでも超高速に動く14B大規模言語モデルRWKVを試す|shi3z

    Transformerは分散できる代償として計算量が爆発的に多いという不利がある。 一度みんなが忘れていたリカレントニューラルネットワーク(RNN)もボケーっとしている場合ではなかった。 なんと、GPT3並の性能を持つ、しかも完全にオープンな大規模言語モデルが公開されていた。 そのなもRWKV(RuwaKuvと発音しろと書いてある。ルワクフ?) RWKVはRNNなのでGPUメモリをそれほど大量に必要としない。 3GBのVRAMでも動くという。 時間がない方はビデオをご覧ください 僕の失敗は、何も考えずにgit lfs installでディレクトリごとコピーしようとしたこと。 このディレクトリには過去のモデルデータが全部あるので、ひとつ30GBのモデルデータを何十個もダウンロードしようとしていて終わらなかったのだ。 モデルデータは一とつあれば十分なのでひとつだけにする。 次に、chatのリポ

    完全フリーで3GBのVRAMでも超高速に動く14B大規模言語モデルRWKVを試す|shi3z
    shunkeen
    shunkeen 2023/03/26
    “huggingfaceで試したところ、かなりのスピードで動作する 騒ごうぜ!”/Memeplexみたいに、みんなが手軽に触れるようにしないと騒いでくれない説。
  • GPT-4 APIがやってきた!3.5と"性能"を比較する|shi3z

    Waiting Listにもっと時間がかかるかと思ったのだが、予想外に早く(一日)APIのロックが解除された。ただしまずは8Kトークン版のみ。 GPT-3.5が4Kトークンだったから倍の長さのストーリーが出せるということだ。 ただし値段はChatGPT APIの10倍。元に戻った感じ。 これはどっちを使うべきか結構悩むぞ。 こんな感じで呼ぶ % curl https://api.openai.com/v1/chat/completions \ -H 'Content-Type: application/json' \ -H 'Authorization: Bearer APIKEY'\ -d '{ "model": "gpt-4", "messages": [{"role": "user", "content": "宮崎駿について"}], "temperature": 0.7 }'答えはこ

    GPT-4 APIがやってきた!3.5と"性能"を比較する|shi3z
    shunkeen
    shunkeen 2023/03/16
    ご指摘はごもっともだなぁと思ったり。私も含めてだいたいの人はハイエンドモデルなんて必要としていなくて、廉価版で十分なんだろうと思う。ただ、最前線で試している清水さんには必要なおもちゃって気もする。
  • GPT-4使ってみた|shi3z

    意外とあっさり公開されたGPT-4。 ChatGPT Plus(月額20ドル)に課金すると使えるらしいので早速使ってみた。 動画は以下 動画を聞き流しながら文を読むのを推奨します まず物語を考えさせてみる。 プロンプト Aという主人公がなんらかの出来事を経験して、自分の能力を使ってA’という状態になった  というのが物語である UberEats配達員を主人公とした物語のあらすじをひとつ考えてみてください これに対する回答 物語のタイトル: 『配達の軌跡:A'への変容』 あらすじ: Aは、ごく普通のUberEats配達員として日々働いていた。ある日、彼が配達をしている途中で、謎の小包が彼のバッグに入っていることに気付く。好奇心に駆られたAは、その小包を開けてしまう。中から現れたのは、謎の古びた護符だった。 その護符を手にした瞬間、Aは突如として特別な能力を手に入れる。彼は時間を操作できるよ

    GPT-4使ってみた|shi3z
    shunkeen
    shunkeen 2023/03/15
    動画見たら、GPT-3からGPT-4になって賢くなったのはわかるけど、ものすごく体感できるほどじゃないわ〜的な話から、APIの待機列には並んだし、Chat GPT Plusは入った方がイイって言ってて、ちょっと面白かった。
  • ChatGPTをブロックでプログラミングできるようにしてみた(ソースコード付き)|shi3z

    4/19 ソースコードのバグを修正しました 花粉症で午前二時に目が覚めた。 ふと 「ChatGPTの結果を組み合わせて物語を作ったり議論したりするのをPythonで書くの面倒臭くない?」 と思った。 誰かが作っていそうなので探したのだが、僕の観測範囲では世界のどこにもなかったので、とりあえずBlocklyで作ることにした。 今夜19時からは、日ディープラーニング協会が主催する大々的なイベントがあり、connpassとPeatixであわせて6000人近い人が参加するらしい。 そこに登壇するときのネタとして、なんか作っておくか、と思った。 GPT Blocklyの基的な構造 基ブロックは三つ 基ブロックテーマを設定するブロックと、話の流れに対し、ある「人物」として、「提案」もしくは「反論」などを行うブロック。 それと、複数の意見をまとめて要約するブロック である。 意見を述べるブロック

    ChatGPTをブロックでプログラミングできるようにしてみた(ソースコード付き)|shi3z
    shunkeen
    shunkeen 2023/03/10
    “ChatGPTの結果を組み合わせて物語を作ったり議論したりするのをPythonで書くの面倒臭くない?”/やることはAPI呼び出しだけだからローコードプログラミングの方が相性良さげってのは鋭い指摘のように思う。
  • 会話という錯覚について|shi3z

    あちらの記事は万人向けに書いているので、行間読まないとわからないようなことは省略してあるのだが、欄の読者には補足として蛇足になるかもしれないが会話について研究していて思ったことを記しておく。 人工無能と僕記事中にあるように僕がチャットボット・・・当時は人工無能と呼ばれていたが・・・を開発し始めたのは中学生の頃だ。1990年頃だと思う。 きっかけは、中学校にNECのパソコンが導入されて、友達に自分のプログラムを見せる機会を得たからだ。 家で一人でプログラミングしているときはどうも気分が乗らなかったのだが、友達を面白がらせるという動機は子供の頃の僕にとっては非常に強く働いた。 一度、家で人工無能のプログラミングをしたときは、相手が自分しかいないのでわりとすぐ飽きてしまったが、中学になってその熱が再燃した。 きっかけは月刊ASCIIに、AWKの特集が載ったことで、AWKというのは要はUNIX用

    会話という錯覚について|shi3z
    shunkeen
    shunkeen 2023/02/11
    どの技術にも利点と欠点があるだろうし、GPTの先に未来があるかはわからないけれど、エキスパートシステムの復興は無理筋じゃない?暗黙に変化し続ける言語を会話のトリックという形式知で捉え切れるとは思えない
  • コンピュータは難しすぎる|shi3z

    コンピュータは非常に便利なのだが、ほとんどのコンピュータユーザーがその能力の1%も使えてないのではないか。そんな気がするのだ。 というか、コンピュータの能力が人類の進歩に比べて上がり過ぎてる。 おかげでゲームAIもビデオ編集も手軽になった。 MacBookの新しいCPUが発表されたのだが、40%高速化したというニューラルエンジンを一体全体何に使えばいいのか、人工知能の研究者である吾輩にもわからないので、これを使いこなすことができる人は将来登場するのだろうか。 コンピュータの能力を真に最大限引き出すには、残念ながらプログラマーになるしかない。しかも、マシン語レベルの最適化ができるプログラマーである。 プログラムさえ丁寧につくればコンピュータの持つ潜在能力は圧倒的に高い。だがコンピュータに比べて人間は頭が悪すぎる。 結局のところ、道具がどれだけ進歩しても使う側の人間の想像力が追いつかないと全

    コンピュータは難しすぎる|shi3z
    shunkeen
    shunkeen 2023/01/19
    清水先生にSF小説書いて欲しいと思っちゃう/人知を超越した計算機<コンピュータ>との対話の窓口<インターフェース>として人工知能<AI>が使われるようになって早10年、祈祷師<プログラマ>である彼は…
  • 1