タグ

aiとllmに関するpetite_blueのブックマーク (12)

  • 無料で使える最高のAIノート『NotebookLM』使い方と活用事例|AI-Bridge Lab こば

    こんにちは!最近、ChatGPTと話しすぎてAI風の口調がうつってきたAI-Bridge Labのこばです!👋 今回の記事はGoogleのサービス『NotebookLM』(ノートブックLM)について 1.NotebookLMの概要 2.使い方 3.具体例として過去のnote記事を全部読ませた結果どうなったか この3点を分かりやすくご紹介します! 先に結論だけお伝えするとかなり実用性が高くオススメのツールです! そしてこの記事を読んで頂ければご自身での活用法が想像できるようになると思いますので、ぜひ最後まで読んで頂けますと幸いです! 1.NotebookLMの概要公式サイト:https://notebooklm.google.com/ NotebookLMは、Googleが提供する生成AIサービスで、ユーザーのメモ書きやアップロードした資料を基に情報を整理し、質問に答えることができる革新的

    無料で使える最高のAIノート『NotebookLM』使い方と活用事例|AI-Bridge Lab こば
  • 1つの大きなLLM(大規模言語モデル)を複数のGPUで力を合わせて動かそう | IIJ Engineers Blog

    地方拠点の一つ、九州支社に所属しています。サーバ・ストレージを中心としたSI業務に携わってましたが、現在は技術探索・深堀業務を中心に対応しています。 2018年に難病を患ったことにより、定期的に入退院を繰り返しつつ、2023年には男性更年期障害の発症をきっかけに、トランスジェンダーとしての道を歩み始めてます。 LLM群雄割拠の時代 昨今、ローカルGPUで駆動できるようなLLM(大規模言語モデル)もかなり増えてきて、キャッチコピー的に「ついに我が家にもGPT-4が!」とか言われるようになってまいりました。パラメータ規模で言えば70億~130億(7B-13B)パラメータ、700億(70B)パラメータ、1400億(140B)パラメータあたりのモデルが活発にリリースされているように見受けられます。 大きなモデルをGPU寄せ集めしつつ遊びたい! しかしながら、コンシュマー向けのGPUにおいては、7B

    1つの大きなLLM(大規模言語モデル)を複数のGPUで力を合わせて動かそう | IIJ Engineers Blog
  • 自然言語プログラミングZoltraak(ゾルトラーク)が超絶すごい

    先日、X(Twitter)で、2万人以上のフォロワーを持ち、起業家でありプログラマでもある元木大介さん(@ai_syacho)が、「Zoltraak(ゾルトラーク)」という自然言語プログラムを発表されました。 このZoltraakは、生成AIに対し自然言語(何らかの既存プログラミング言語ではなく日語)で命令できる、新しいタイプのものです。 ChatGPTとどこが違うの? 「え、ChatGPTでも日語でお願いできるじゃん」と思いますよね? ChatGPTとZoltraakでは、出力の考え方が根的に違っています。 現在の生成AIは対話式がメイン ChatGPTに代表される生成AIは対話式です。 GPT、Gemini、Copilotなどの生成AIは向上を続け、入力できるテキスト量こそ増えました。しかし、業務全体を俯瞰して依頼することはまだ難しいのが実情です。 分解したタスク毎に内容を依頼し

    自然言語プログラミングZoltraak(ゾルトラーク)が超絶すごい
  • Sakana AI

    概要 Sakana AIは進化や集合知などの自然界の原理を応用して基盤モデルを開発することを目指しています。私達の目標は、モデルを自ら訓練し開発することだけではありません。基盤モデルの開発を効率化、高度化、自動化するための新たな手法を生み出すことに挑戦しています。この目標に向けた第一歩として、私たちはプレプリント「Evolutionary Optimization of Model Merging Recipes (モデルマージの進化的最適化)」を公開しました。 このリリースの要点は以下の通りです。 進化的モデルマージという手法を提案します。これは、多様な能力を持つ幅広いオープンソースモデルを融合(マージ)して新たな基盤モデルを構築するための方法を、進化的アルゴリズムを用いて発見する手法です。私たちの手法は、ユーザーが指定した能力に長けた新しい基盤モデルを自動的に作成することができます。既

    Sakana AI
  • 1ビットLLMの衝撃! 70Bで8.9倍高速 全ての推論を加算のみで!GPU不要になる可能性も

    1ビットLLMの衝撃! 70Bで8.9倍高速 全ての推論を加算のみで!GPU不要になる可能性も 2024.02.28 Updated by Ryo Shimizu on February 28, 2024, 16:46 pm JST 2月は中国では春節というお正月があり、春節にはみんな休む。 それもあってか、12月から1月にかけて怒涛の論文発表が行われて毎日「デイリーAIニュース」を配信している筆者は忙殺されていた。 春節中にはOpenAIがSoraを、GoogleがGemini1.5を発表したのは、その合間を縫ってのことだった。もはやAI最前線の戦いは研究が行われる場所の文化や風土に影響を受けるところまで来ている。 そして春節もあけた今週、さっそくAlibabaがとんでもないトーキングヘッドモデルを引っ提げて登場したかと思えば、Microsoft中国チームがとてつもないLLMをリリース

    1ビットLLMの衝撃! 70Bで8.9倍高速 全ての推論を加算のみで!GPU不要になる可能性も
  • 大規模言語モデル(LLM)を爆速で動作させる「言語処理ユニット(LPU)」を開発する「Groq」が爆速アルファデモを公開

    大規模言語モデル(LLM)などを実行するために設計されたカスタムハードウェアである言語処理ユニット(LPU)を開発するGroqが、既存のLLMを爆速で動作させることができるアルファ版デモンストレーションを公開しました。 A company called Groq may have pushed AI chips to the next level https://www.androidheadlines.com/2024/02/openai-groq-ai.html Forget ChatGPT — Groq is the new AI platform to beat with blistering computation speed | Tom's Guide https://www.tomsguide.com/ai/forget-chatgpt-groq-is-the-new-ai-

    大規模言語モデル(LLM)を爆速で動作させる「言語処理ユニット(LPU)」を開発する「Groq」が爆速アルファデモを公開
    petite_blue
    petite_blue 2024/02/22
    めちゃくちゃ速い。人間がいらないレベル
  • ソフトバンクの生成AIは「1兆パラメーター目指す」と宮川社長 “蒸留”して「研ぎ澄まされたLLMに」

    ソフトバンク子会社のSB Intuitionsが開発している国産大規模言語モデル(LLM)は、1兆パラメーター超えを目指す──ソフトバンクの宮川潤一社長が2月7日に開催した決算説明会(2024年3月期第3四半期)の中で明らかにした。 同社は2023年10月に国内最大級の生成AI開発向け計算基盤の稼働とLLM開発の開始を発表した。宮川社長によると、開発中のLLMは23年12月末の時点で1300億パラメーターに達し、検証を実施しているという。 当面の目標は「3900億パラメーターの構築。並行してLLMのマルチモーダル化も進める」。文書だけでなく、図表や符号、画像といった入力にも対応したLLMを2024年度中に完成させるという。 さらに「先の話」として、1兆超えのパラメーター数を目指すという。そこから“蒸留”とよばれる、パラメーター数の多いモデルの出力をより小さく軽量なモデルに学習させて計算効率

    ソフトバンクの生成AIは「1兆パラメーター目指す」と宮川社長 “蒸留”して「研ぎ澄まされたLLMに」
  • AutoGen - Qiita

    はじめに 今回はAutoGenの紹介になります.AutoGenはMicorsoftが開発しているOSSで,LLM,ツール,人間を統合できるLLMフレームワークや最適なコストで推論能力を向上させるチューニングの機能などがあります.また様々なシチュエーションに対応できるようなLLMを使ったフレームワークも紹介されていました.複数のエージェント間のチャット、コードを介してツールを使用する必要があるタスクの実行、人間のフィードバックを受けながらタスクを実行させることなどができるそうです. 記事に誤り等ありましたらご指摘いただけますと幸いです。 1. AutoGen 2. 使い方 3. おわりに 4. 参考文献 1. AutoGen ライセンス:CC-BY-4.0 LICENSE,MIT LICENSE-CODE (ドキュメントやデータがCC-BY-4.0でコードがMITライセンスという解釈で正しい

    AutoGen - Qiita
  • Microsoft「AutoGen」で、生成AIの新時代“マルチエージェント”を試す【イニシャルB】

    Microsoft「AutoGen」で、生成AIの新時代“マルチエージェント”を試す【イニシャルB】
  • 生成AIに“視覚”与える学習ライブラリ、自動運転EVベンチャー公開 最大700億パラメータの学習済みモデルも

    Heronは、各モジュールを追加学習するための学習コードと日語を含むデータセット、学習済みのモデル群で構成。画像認識モデルと大規模言語モデル(LLM)をつなぎ、画像を入力に使えるようになる。例えば、Heronで学習したAIモデルは、画像に何が写っているかを正確に把握しつつ、前の質問を含む文脈を理解しながら画像について回答することができる。 Heronの学習ライブラリでは、学習するLLMを自由に変換可能。「既存の言語モデルの性能を生かしつつ、今後開発・公開される新たなLLMに対しても容易に対応できる柔軟性がある」(同社)という。 公開中の学習済みのモデル群は「Llama 2-chat」(700億パラメータ)「ELYZA-Llama 2」(70億パラメータ)「Japanese StableLM」(70億パラメータ)などをベースにHeronで追加学習し、マルチモーダル化させたもの。これらのモデ

    生成AIに“視覚”与える学習ライブラリ、自動運転EVベンチャー公開 最大700億パラメータの学習済みモデルも
  • ‎Gemini - chat to supercharge your ideas

    Bard is now Gemini. Get help with writing, planning, learning, and more from Google AI.

    ‎Gemini - chat to supercharge your ideas
  • 大規模言語モデルを自社でトレーニング&活用する方法|mah_lab / 西見 公宏

    オンラインIDEを提供しているReplitでは自社で大規模言語モデルをトレーニングしているらしく、そのノウハウがブログ記事にまとめられていたので要約してみました。 なぜ自社で大規模言語モデルをトレーニングするのか?企業が独自に大規模言語モデル(以下、LLMs)をトレーニングすることを決める理由は、データのプライバシーやセキュリティから、アップデートや改良のコントロールの強化まで様々なものがあるが、Replit社ではカスタマイズ性、依存度の低減、コスト効率に重点を置いている。 カスタマイズ性 カスタムモデルをトレーニングすることで、GPT-4のような汎用モデルやCodexのようなコードに特化したモデルではカバーしきれないプラットフォーム固有の機能、用語、コンテキストなどといった特定のニーズや要件に合わせてモデルを調整することができる。例えば、Replitで人気の高いJavascript Re

    大規模言語モデルを自社でトレーニング&活用する方法|mah_lab / 西見 公宏
  • 1