並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 52件

新着順 人気順

phiの検索結果1 - 40 件 / 52件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

phiに関するエントリは52件あります。 人工知能MicrosoftAI などが関連タグです。 人気エントリには 『Microsoftがたった13億のパラメーターでGPT-3.5超えのHumanEval50.6%をたたき出す「phi-1」を発表』などがあります。
  • Microsoftがたった13億のパラメーターでGPT-3.5超えのHumanEval50.6%をたたき出す「phi-1」を発表

    LLaMaやFalconといった小型の大規模言語モデル(LLM)が矢継ぎ早にリリースされる中、Microsoft ResearchのAI研究チームが、プレプリントサーバーのarXivで、Transformerベースのモデル「phi-1」を発表しました。このモデルは、パラメーター数がGPT-3.5の100分の1以下の13億しかないにもかかわらず、テスト用データセット・HumanEvalでGPT-3.5を上回る成績を収めたことが報告されています。 [2306.11644] Textbooks Are All You Need https://doi.org/10.48550/arXiv.2306.11644 Microsoft Releases 1.3 Bn Parameter Language Model, Outperforms LLaMa https://analyticsindiama

      Microsoftがたった13億のパラメーターでGPT-3.5超えのHumanEval50.6%をたたき出す「phi-1」を発表
    • マイクロソフト、軽量かつ高性能な大規模言語モデル「phi-1」を発表

      Microsoft ResearchのAI研究チームは6月20日(現地時間)、わずか13億パラメーターと従来のものよりもサイズが小さいにも関わらず「GPT-3.5(1750億パラメーター)」を上回る成績を収めたTransformerベースの大規模言語モデル「phi-1」を発表した。このモデルは間もなく「Hugging Face」で公開される予定だといいう。 ベンチマークでGPT-3.5を凌駕 「Textbooks Are All You Need」と題された研究論文によると、このモデルは8台のA100(NVIDIAの高性能GPU)でわずか4日間かけて訓練され、インターネット上から取得した60億トークンの「教科書品質」データセットと、GPT-3.5で生成した10億トークンの微調整用「練習問題」データセットが使用された。 サイズが小さいにもかかわらず、phi-1はLLMの性能を測定するためのベ

        マイクロソフト、軽量かつ高性能な大規模言語モデル「phi-1」を発表
      • GPT-3.5の100分の1以下のモデルサイズでより高いプログラミング処理能力持つ「phi-1」Microsoftが開発 | Ledge.ai

        Top > 学術&研究 > GPT-3.5の100分の1以下のモデルサイズでより高いプログラミング処理能力持つ「phi-1」Microsoftが開発

          GPT-3.5の100分の1以下のモデルサイズでより高いプログラミング処理能力持つ「phi-1」Microsoftが開発 | Ledge.ai
        • ラズパイ4でも動かせるローカルLLM用省メモリ小型高性能Phi-2モデルのライセンスをMicroSoftがMITライセンスに変更。これで自由に配布・改造・商用利用が出来ます。llamafile版も公開されました。もちろんLinuxでもNetBSDでも動きます

          Kapper@Linuxガジェヲタ&異世界小説家&電子工作大好き @kapper1224 オープンソースのローカルLLM界隈がPhi-2ライセンスMIT変更で大騒ぎしていますな。 Phi-2改造版も密かにあちこちであります。 ちなみにGGUF版はこちらからダウンロード出来ますし huggingface.co/kroonen/phi-2-… Phi-2 llamafile版もこちらからダウンロードできます huggingface.co/jartine/phi-2-… 2024-01-06 20:15:36 CodingNerds COG @CodingnerdsCog @Microsoft finally changed the license for their small #LLM phi-2 to MIT! 🚀 >> Phi-2 is a 2.7 billion parameter

            ラズパイ4でも動かせるローカルLLM用省メモリ小型高性能Phi-2モデルのライセンスをMicroSoftがMITライセンスに変更。これで自由に配布・改造・商用利用が出来ます。llamafile版も公開されました。もちろんLinuxでもNetBSDでも動きます
          • 僅か2.3GBで日本語可能な超高性能ローカルLLMのPhi-3 MINIをllama.cppとCPUで動かしてみた。スマホでも可。従来のコンパクトLLMと比較して超越した性能で未来を感じさせるMicroSoft寄付ありがとう

            Kapper@Linuxガジェヲタ&異世界小説家&生成AI&電子工作大好き @kapper1224 昨日MicroSoftからリリースしたローカルLLMモデルのPhi-3 mini 4k Q4をllama.cppのサーバ版を動かしてみた。こいつ2.32GBしかないくせに日本語しゃべれるぞ。今までとは桁違いの性能なんですけど・・・ ./build/bin/server -m ../Phi-3-mini-4k-instruct-q4.gguf -n 128 huggingface.co/microsoft/Phi-… pic.twitter.com/DTmUmeh7JE

              僅か2.3GBで日本語可能な超高性能ローカルLLMのPhi-3 MINIをllama.cppとCPUで動かしてみた。スマホでも可。従来のコンパクトLLMと比較して超越した性能で未来を感じさせるMicroSoft寄付ありがとう
            • マイクロソフト最新SLM「Phi-3」 メタ「Llama 3」あっさり抜く

              マイクロソフトは4月23日、生成AI向けの小規模言語モデル(SLM)「Phi-3-mini」を発表した。 Phi-3-miniは、パラメーター数が38億の比較的小型軽量な言語モデル。単純なタスクに適しており、特定のニーズに合わせて容易に微調整できる点を特徴とする。スマートフォンや自動車のコンピューター、リモートカメラといったリソースの少ないデバイスでも利用できるほか、オフライン動作にも対応し、ネット接続が困難な地域でも生成AIの恩恵を受けられるという。 同社が実施したベンチマークテストでは、パラメーター数で勝るメタの「Llama 3-8B-in」(80億)や、グーグルの「Gemma 7B」(70億)に対して、より優れた性能を発揮。特にLlama 3に関しては、4月18日のリリースからわずか5日でPhi-3-miniに追い越される形となった。 ただしPhi-3-miniも万能ではなく、広範な

                マイクロソフト最新SLM「Phi-3」 メタ「Llama 3」あっさり抜く
              • PHIというネトゲでおじさんに救われていた小学生女児の話

                私が小学生の頃、Phantasmal Islandというネトゲをプレイしていたときの、 そこでのおじさんとの思い出話(2003~2008年くらい)です。 ※おじさんが今何歳なのか知らない。当時も結局教えてもらえなかったので。 だから本当はおじさんじゃないのかもしれないけど、便宜上おじさんと呼ぶ。 釣りっぽいタイトルになってしまった。おじさんに届いてほしいので許してください。 小学生のとき、私にはほとんど友達がいなかった。 正確に言えば、幼稚園の時点で既に友達がいなかったようだ。幼稚園の連絡帳に、遠回しにそういった内容が書いてあったのを以前見たことがある。 自分の記憶を辿ってみても、誰かと遊んでいた印象はあまりない。 他の女の子が私を遊びに誘ってくれても、断って絵を描き続けていたことを覚えている。 描いていた絵は当時母親がプレイしていたトルネコの大冒険のアイコン。壺とか巻物とか。 その女の子

                  PHIというネトゲでおじさんに救われていた小学生女児の話
                • 【Phi-3-Medium】GPU2台構成でローカルLLMを動かす【Ubuntu24】

                  はじめに GMO NIKKOの吉岡です。 みなさん、生成AIは活用してますか? ChatGPTに始まり、Claude3やGeminiなど、実用的なAIがどんどん出てきてますね。 自分も使ってはきましたが、課金が気になってしまいます。 これではサービスに組み込むことは難しいですよね。 そのためローカルで動くLLMを追ってきましたが、今年に入って実用的な日本語を返すことができるモデルがいくつか出てきているので、サーバー構成からインストール方法、LLMの起動まで紹介しようと思います。 ローカルLLMを動かす上で一番重要なのはGPUのVRAMです。 LLMは7B、13B、70Bモデルが多いですが、量子化しない場合、必要なVRAM容量は動かすモデルの大体2倍なので、13Bモデルでは26GのVRAMが必要です。 NVIDIAのGPUを使ったCUDAが前提になっているのですが、一般向けでは24Gモデルが

                    【Phi-3-Medium】GPU2台構成でローカルLLMを動かす【Ubuntu24】
                  • GPT-4oとPhi-3でLLMとSLMの双方を取り込むMicrosoftのAI戦略

                      GPT-4oとPhi-3でLLMとSLMの双方を取り込むMicrosoftのAI戦略
                    • Microsoftがコスト効率の高い小さめの言語モデル「Phi-3」をリリース、オープンモデルで商用利用可能

                      Microsoftが小さい規模で大きな性能を発揮する言語モデルとして「Phi-3」ファミリーをリリースしました。ファミリーの中でも一番小さなサイズのモデルであるPhi-3-miniはオープンモデルとなっており、無料で商用利用が可能です。 Introducing Phi-3: Redefining what's possible with SLMs | Microsoft Azure Blog https://azure.microsoft.com/en-us/blog/introducing-phi-3-redefining-whats-possible-with-slms/ Tiny but mighty: The Phi-3 small language models with big potential - Source https://news.microsoft.com/sour

                        Microsoftがコスト効率の高い小さめの言語モデル「Phi-3」をリリース、オープンモデルで商用利用可能
                      • AIのトレーニングを大幅に安く高速化できるLLM「phi-1.5」が登場 - BRIDGE(ブリッジ)テクノロジー&スタートアップ情報

                        Image credit: HuggingFace 「ChatGPT」「LLaMA 2」「Claude 2」「Bard」「Falcon 180B」など、現在エンタープライズソフトウェア市場で話題になっているような AI の大規模言語モデル(LLM)のトレーニングには、大規模で専門的な計算能力が必要だ。そのため、OpenAI、Meta、Cohere、Google、Abu Dhabi の Technology Innovation Institute など、資金力のある大規模な組織がその役割を担っているのは不思議ではない。 しかし、Microsoft Research 機械学習基盤(Machine Learning Foundation)チームのリーダー Sebastien Bubeck 氏は、彼らの新しい非商用の「phi-1.5」のようなオープンソースでリソース効率の良いモデルの研究のおかげ

                          AIのトレーニングを大幅に安く高速化できるLLM「phi-1.5」が登場 - BRIDGE(ブリッジ)テクノロジー&スタートアップ情報
                        • Microsoftが小規模言語モデル「Phi-2」をリリース、小規模なのに最大25倍サイズのモデルと同等以上の性能

                          2023年11月のイベント「Microsoft Ignite 2023」で発表された言語モデルの「Phi-2」がリリースされました。パラメーター数は27億で小規模なモデルとなっているものの、最大で25倍のモデルと同等の性能を発揮できます。 Phi-2: The surprising power of small language models - Microsoft Research https://www.microsoft.com/en-us/research/blog/phi-2-the-surprising-power-of-small-language-models/ Today, we share our teams’ latest contributions, Phi-2 and promptbase. Phi-2 outperforms other existing sma

                            Microsoftが小規模言語モデル「Phi-2」をリリース、小規模なのに最大25倍サイズのモデルと同等以上の性能
                          • Llama3,Phi-3などの対話型人工知能(大規模言語モデル)をパソコンで動かす - Qiita

                            かつては大規模言語モデルは,メモリを大量に消費し,大量のGPUが必要なため個人レベルで動かすものではありませんでした.しかし,2024年にLlama3 7BやMixtral 8x7b, Phi-3 smallなどChatGPT-3.5レベルの能力を持ち軽量で無料の大規模言語モデルが登場してきました.それだけではなく,これらの大規模言語モデルをコマンド一つでインストールするが出来るようにもなりました.2024年から,大規模言語モデル(対話型人工知能)を自宅で気軽に動かせる時代になったと言えます. この記事に対話型人工知能をパソコンにインストールする方法とその結果を書きます. 環境 前提としている環境 私は人工知能の研究をしているため,すでにLinux(Debian 12)上でPython3とCUDAが動く環境を整えています.以下の記事はLinuxの使用を前提にしています. パソコンのスペック

                              Llama3,Phi-3などの対話型人工知能(大規模言語モデル)をパソコンで動かす - Qiita
                            • 小規模言語モデル(SLM)とは? マイクロソフトPhi-3やグーグルGammaは何を競うのか?

                              生成AI領域における言語モデルは今、いくつかの方向で開発が進められている。 その1つは「大規模言語モデル(LLM)」の開発。大規模言語モデルは、生成AIの代名詞的な存在で、文字どおりサイズ(パラメータ数)が大きなモデルを指す。最近の例でいえば、GPT-4oやClaude 3 Opusなどが代表格といえるだろう。パラメータ数は公開されていないが、非常に大規模なモデルといわれており、パフォーマンスもかなり高いものとなっている。 もう1つが、大規模言語モデルに比べ規模が小さな言語モデル(Small Language Model=SLM)の開発だ。SLMとは、LLMよりもパラメータ数が少なく、よりコンパクトで効率的なAIモデルのことを指す。一般的にLLMが数百億から数千億のパラメータを有するのに対し、SLMは数億から数十億程度のパラメータで構成される。 LLMは、テキストや画像、音声、動画など幅広

                                小規模言語モデル(SLM)とは? マイクロソフトPhi-3やグーグルGammaは何を競うのか?
                              • Microsoft、生成AI「Phi-3」自社開発 通信なくてもスマホで動作 - 日本経済新聞

                                【シリコンバレー=渡辺直樹】米マイクロソフトは新型の生成AI(人工知能)を開発した。通信がつながらなくてもスマートフォン単体で使える。提携する米新興企業オープンAIの「Chat(チャット)GPT」と併せて提供し、品ぞろえを強化する。利用者にとって、用途に応じて生成AIの選択肢が増えてきた。今回の「Phi(ファイ)-3」は自社開発した。マイクロソフトは提携先のオープンAIに約2兆円を投じ、チャッ

                                  Microsoft、生成AI「Phi-3」自社開発 通信なくてもスマホで動作 - 日本経済新聞
                                • 【やじうまPC Watch】 【懐パーツ】1チップ60コアの夢を実現した「Xeon Phi 5110P」

                                    【やじうまPC Watch】 【懐パーツ】1チップ60コアの夢を実現した「Xeon Phi 5110P」
                                  • Microsoft Build 2024の新発表10選【GPT-4o / Copilot / Phi】

                                    はじめまして、ますみです! 株式会社Galirage(ガリレージ)という「生成AIに特化して、システム開発・アドバイザリー支援・研修支援をしているIT企業」で、代表をしております^^ この記事では「Microsoft Build 2024」における発表内容を解説します! 私自身、実際に現地のシアトルから聴いていたのですが、感動する発表がいくつかありました😢 1. CopilotにおけるGPT-4oの利用 Copilot上で、GPT-4oが使えるようになります! (正確には、利用イメージがデモされました!) 発表内では、マインクラフトの例が取り上げられました。 画面内で、どのようなことが起きているかをAIが理解して、どのように剣を作れるかなどを教えてくれたりしました。 ここでは、先日のOpenAIによるGPT-4oのデモのように、音声によるインタラクションがされていました。 2. Azur

                                      Microsoft Build 2024の新発表10選【GPT-4o / Copilot / Phi】
                                    • MicrosoftがすべてのCopilot+ PC用言語モデル「Phi-Silica」一般提供を発表

                                      Microsoftが2024年5月21日に開催された開発者向け年次カンファレンス「Microsoft Build 2024」の基調講演で、AI特化のPC「Copilot+ PC」に搭載されたNPU上でローカルに動作する小規模言語モデル「Phi-Silica」をはじめとする40以上のAPIを発表しました。 New models added to the Phi-3 family, available on Microsoft Azure | Microsoft Azure Blog https://azure.microsoft.com/en-us/blog/new-models-added-to-the-phi-3-family-available-on-microsoft-azure/ NVIDIA Collaborates With Microsoft to Help Develope

                                        MicrosoftがすべてのCopilot+ PC用言語モデル「Phi-Silica」一般提供を発表
                                      • 【ollama / Phi-3】ニュースで話題のLLMをローカルPC上で動かしてみる

                                        この記事では、ローカルLLMの実行ツール「ollama」を活用して、Microsoftが開発した軽量言語モデル「Phi-3」をMac上で実行する手順を紹介します。 実行例 はじめに 2024年4月、スマートフォン単体でも実行できる軽量な言語モデルの「Phi-3」がMicrosoft社より発表されました。 このほかにも、Meta社の「Llama3」など、ローカル環境でも実行可能なLLMの選択肢が増えてきています。 そこで今回は、これらのLLMがどのような性能を発揮するのか、手元のMacBook Airで試してみることにしました。 この記事では、ローカルLLMの基礎知識や、実行までの手順を簡潔にまとめます。 (あくまで体感での性能確認にとどめており、定量的なベンチマークなどは行なっていません。) 環境 今回、ローカルLLMを実行した環境は以下のとおりです。おそらく、現在MacBookをお使いの

                                          【ollama / Phi-3】ニュースで話題のLLMをローカルPC上で動かしてみる
                                        • 「Phi-3」「Llama-3」「GPT-4o mini」などの小規模言語モデルを使用して生成AIの回答精度を向上させる「SLMファインチューニング」カスタムサービスを開始

                                          「Phi-3」「Llama-3」「GPT-4o mini」などの小規模言語モデルを使用して生成AIの回答精度を向上させる「SLMファインチューニング」カスタムサービスを開始 AIソリューション事業を手掛ける株式会社ヘッドウォータース(本社:東京都新宿区、代表取締役:篠田 庸介、以下「ヘッドウォータース」)は、生成AIの業務活用を推進する企業向けに「SLMファインチューニング」カスタムサービスの提供を開始しました。 同サービスは、マイクロソフト株式会社が提供する「Azure AI モデルカタログ」から選べるオープンソースAI基盤モデル「Phi-3」、「Llama-3」、並びに「GPT-4o mini」を中心とした小規模言語モデルを使用して、生成AIの回答精度を向上させるサービスとなり、生成AIが作成する文章の精度では業務利用が厳しいと考えられている企業に有用なサービスとなっております。 ヘッ

                                            「Phi-3」「Llama-3」「GPT-4o mini」などの小規模言語モデルを使用して生成AIの回答精度を向上させる「SLMファインチューニング」カスタムサービスを開始
                                          • Microsoft、商用利用可のSLM「Phi-3」リリース スマホで動くモデルも

                                            米Microsoftは4月23日(現地時間)、小規模言語モデル(SLM)の「Phi-3」を発表した。3サイズ(mini、small、medium)あり、最小モデルのminiは同日からAzure AI Studio、Hugging Face、Ollamaで利用可能になった。 miniのトレーニングデータは38億パラメータ。smallは70億、mediamは140億と、大規模言語モデル(LLM)より少ないが、高品質なデータでトレーニングしているため、「主要なベンチマークにおいて、同じサイズまたはより大きなサイズの言語モデルよりも大幅に優れたパフォーマンスを示す」という。 例えばPhi-3-smallは、米OpenAIのGPT-3.5 Turbo(パラメータ数は公表されていないが、約175億とみられている)などの「はるかに大きなモデルよりも優れたパフォーマンスを発揮する」としている。 Micro

                                              Microsoft、商用利用可のSLM「Phi-3」リリース スマホで動くモデルも
                                            • ローカルLLM"Phi-3"をWindows CPUで動かす

                                              はじめに おれの名前は樋口恭介。Phi-3というMicrosoftから2024年4月23日にリリースされた小規模LLMが、ギリCPUでも動くうえにGPT-3.5よりも精度が高いということで、触ってみることにした。 まずはGoogle Colab上でCPUを選択し、動きを確認したところ、通常モデルでも20分~30分程度で、かなり精度が高い回答が得られ、4bit量子化モデルだと、2分~3分程度で、それなりの出力が得られることがわかった。 そこで、気分がもりあがってきたので、自身のローカルPC(Windows11、GPUなし、メモリ16GB)でも動かしてみることにした。以下はそのときの試行錯誤のメモである(ほぼ趣味の領域の活動だが、業務時間中に行ったので、こうしてちゃんと会社のブログで手順をまとめているというわけだ)。 何も考えずにやるとけっこうハマりポイントが多かった気がするので、ぜひ参考にし

                                                ローカルLLM"Phi-3"をWindows CPUで動かす
                                              • Tiny but mighty: The Phi-3 small language models with big potential

                                                All Microsoft Global Microsoft 365 Teams Copilot Windows Surface Xbox Deals Small Business Support Software Windows Apps AI Outlook OneDrive Microsoft Teams OneNote Microsoft Edge Skype PCs & Devices Computers Shop Xbox Accessories VR & mixed reality Certified Refurbished Trade-in for cash Entertainment Xbox Game Pass Ultimate PC Game Pass Xbox games PC and Windows games Movies & TV Business Micro

                                                  Tiny but mighty: The Phi-3 small language models with big potential
                                                • Microsoft、Windowsローカルで実行可能なSLM「Phi Silica」を全「Copilot+ PC」に搭載へ

                                                  米Microsoftは5月21日(現地時間)、開発者向け年次開発者会議「Microsoft Build 2024」の基調講演で、ローカルで実行可能なSLM(小規模言語モデル)「Phi Silica」(ファイシリカ)を発表した。前日発表した一連の「Copilot+ PC」に搭載していく。 Microsoftは「Phi-3」ファミリーでSLMを展開しているが、Phi SilicaはPhi-3の最小モデル「Phi-3-mini」(38億パラメータ)より小さい33億パラメータ。 Copilot+ PCのNPU(ニューラルプロセッシングユニット)に最適化されており、トークン生成はNPUのキャッシュを再利用してCPUで実行され、1秒当たり約27個のトークンを生成するという。これにより、閲覧中の画面を数秒ごとに保存しておき、後から横断検索できる「回顧」(Recall)機能などを高速に実行できる。 「回顧

                                                    Microsoft、Windowsローカルで実行可能なSLM「Phi Silica」を全「Copilot+ PC」に搭載へ
                                                  • Phi-3 Technical Report: A Highly Capable Language Model Locally on Your Phone

                                                    We introduce phi-3-mini, a 3.8 billion parameter language model trained on 3.3 trillion tokens, whose overall performance, as measured by both academic benchmarks and internal testing, rivals that of models such as Mixtral 8x7B and GPT-3.5 (e.g., phi-3-mini achieves 69% on MMLU and 8.38 on MT-bench), despite being small enough to be deployed on a phone. The innovation lies entirely in our dataset

                                                    • 黄金比をデザインに取り入れるなら。カードサイズの作図定規「Phi Ruler」 | ライフハッカー・ジャパン

                                                      このデザインいいなー!と思ったらそれ、黄金比かも。 古代ギリシアから脈々と受け継がれる、人間が本能的に美しいと感じる比率(1:1.618)が黄金比で、有名な建造物やアートなど美しいと称賛されてきたものの多くに用いられています。 そんな黄金比作図が簡単にできる「Phi Ruler」が姉妹サイトmachi-yaに登場しました。文房具として使用はもちろん、コレクターズアイテムにもなる見た目にも美しい仕上がりも特長だそう。 黄金比をコンパクトに凝縮Image: PEDAL JAPAN TRADE黄金比の例として頻出するのがモナ・リザなど絵画。美しく感じられるよう顔の縦横比が1:1.618に工夫されているそうです。 Image: PEDAL JAPAN TRADEそんな黄金比を踏襲して作られた「Phi Ruler」は定規・コンパス・分度器としての機能を持っています。 また製品自体も黄金比螺旋をモチー

                                                        黄金比をデザインに取り入れるなら。カードサイズの作図定規「Phi Ruler」 | ライフハッカー・ジャパン
                                                      • Microsoft、マルチモーダルなSLM「Phi-3-vision」をプレビュー

                                                        米Microsoftは5月21日(現地時間)、開発者向け年次開発者会議「Microsoft Build 2024」の基調講演で、SLM(小規模言語モデル)「Phi-3」ファミリーの新メンバー「Phi-3-vision」(以下「vision」)を発表した。画像を解析するマルチモーダルなSLMだ。プレビュー版を利用可能。 SLMは単純なタスクで適切に実行できるように設計されており、リソースが限られる組織や端末上でローカルに実行する必要があるアプリに適した言語モデルだ。 visionは、描画はできないが、モバイル端末で利用可能なコンパクトさだ。42億パラメータモデルで、グラフや画像に関して質問すると、それについて説明してくれる。 Microsoftは「visionは画像とテキストを一緒に検討する必要があるタスクに最適だ」としている。多様なハードウェアで実行できるように最適化されており、開発者はモ

                                                          Microsoft、マルチモーダルなSLM「Phi-3-vision」をプレビュー
                                                        • MS、小型AIモデル「Phi-3-mini」を発表--性能は「GPT-3.5」に匹敵

                                                          Don Reisinger (Special to ZDNET.com) 翻訳校正: 佐藤卓 吉武稔夫 (ガリレオ) 2024-04-24 09:35 テクノロジー企業各社は、より大規模でより高性能な人工知能(AI)モデルの構築でしのぎを削っている。だが、小型モデルも依然として大きな価値を持っており、Microsoftはそのコンセプトに大きく賭けようとしている。 Microsoftは米国時間4月23日、今後数カ月以内に3つの小型AIモデルをリリースすることを明らかにし、最初のモデルとして「Phi-3-mini」をリリースした。Phi-3-miniは、トレーニングに使用されたパラメーター(AIモデルがより優れた結果を生成するために使用する変数)数が38億と、計画されている3つのモデルの中で最も規模が小さい。同社は、トレーニング用パラメーター数が70億の「Phi-3-small」と140億の「

                                                            MS、小型AIモデル「Phi-3-mini」を発表--性能は「GPT-3.5」に匹敵
                                                          • Microsoft、Igniteで発表の小規模言語モデル「Phi-2」をAzureでリリース

                                                            米Microsoftは12月11日(現地時間)、11月開催の「Ignite 2023」で発表したSLM(小規模言語モデル)「Phi-2」をリリースしたと発表した。AIサービスの開発プラットフォーム「Azure AI Studio」のモデルカタログで利用できる。 SLMは、米OpenAIのGPTのような、汎用性はあってもトレーニングに膨大なリソースがかかるLLMとは異なる小規模な言語モデル。 Microsoftはまず6月、コーディング用に最適化された13億パラメータの「Phi-1」を発表。このモデルはベンチマークで、最大10倍のモデルを上回っていた。 Phi-2は27億パラメータで、常識、言語理解、論理的推論で性能を発揮するという。ベンチマークでは、米MetaのLlama 2の700億パラメータモデルを幾つかの分野で上回っている。 また、米Googleが7日に発表した生成AIモデル「Gemi

                                                              Microsoft、Igniteで発表の小規模言語モデル「Phi-2」をAzureでリリース
                                                            • MMLUをアップデートしたベンチマーク『MMLU-Pro』Phi-3やLlama 3、Claude 3、GPT-4oなどの評価結果 | AIDB

                                                              参照論文情報 タイトル:MMLU-Pro: A More Robust and Challenging Multi-Task Language Understanding Benchmark 著者:Yubo Wang, Xueguang Ma, Ge Zhang, Yuansheng Ni, Abhranil Chandra, Shiguang Guo, Weiming Ren, Aaran Arulraj, Xuan He, Ziyan Jiang, Tianle Li, Max Ku, Kai Wang, Alex Zhuang, Rongqi Fan, Xiang Yue, Wenhu Chen 所属:University of Waterloo, University of Toronto, Carnegie Mellon University 背景 GPT-4、Claude、Ge

                                                                MMLUをアップデートしたベンチマーク『MMLU-Pro』Phi-3やLlama 3、Claude 3、GPT-4oなどの評価結果 | AIDB
                                                              • Google Colab で Phi-3 を試す|npaka

                                                                「Google Colab」で「Phi-3」を試したので、まとめました。 1. Phi-3「Phi-3」は、Microsoftが開発したSLM (Small Language Model)です。さまざまな言語、推論、コーディング、数学のベンチマークにわたって、同じサイズのモデルや次のサイズのモデルよりも優れたパフォーマンスを発揮します。 パラメータ数と学習トークン数は、次のとおりです。 ・Phi-3-mini (3.8B、3兆3000億) ・Phi-3-small (7B、4兆8000億) ・Phi-3-medium (14B、4兆8000億) 2. Phi-3 のモデル「Phi-3」では現在、次の4種類のモデルが提供されています。 ・microsoft/Phi-3-mini-4k-instruct ・microsoft/Phi-3-mini-4k-instruct-onnx ・micro

                                                                  Google Colab で Phi-3 を試す|npaka
                                                                • Phi-2: The surprising power of small language models

                                                                  Contributors Marah Abdin, Jyoti Aneja, Sebastien Bubeck, Caio César Teodoro Mendes, Weizhu Chen, Allie Del Giorno, Ronen Eldan, Sivakanth Gopi, Suriya Gunasekar, Mojan Javaheripi, Piero Kauffmann, Yin Tat Lee, Yuanzhi Li, Anh Nguyen, Gustavo de Rosa, Olli Saarikivi, Adil Salim, Shital Shah, Michael Santacroce, Harkirat Singh Behl, Adam Taumann Kalai, Xin Wang, Rachel Ward, Philipp Witte, Cyril Zha

                                                                    Phi-2: The surprising power of small language models
                                                                  • 中野 昌宏【世耕氏尋問11月4日10:30〜 東京地裁426号法廷】 on Twitter: "90年の「勝共推進議員」(統一教会が推してる議員)の名簿なんですが、まあ自民なわけですよ。安倍晋太郎さんももちろん入っている。拡大して見てください。 https://t.co/5n78WO8pHi"

                                                                    90年の「勝共推進議員」(統一教会が推してる議員)の名簿なんですが、まあ自民なわけですよ。安倍晋太郎さんももちろん入っている。拡大して見てください。 https://t.co/5n78WO8pHi

                                                                      中野 昌宏【世耕氏尋問11月4日10:30〜 東京地裁426号法廷】 on Twitter: "90年の「勝共推進議員」(統一教会が推してる議員)の名簿なんですが、まあ自民なわけですよ。安倍晋太郎さんももちろん入っている。拡大して見てください。 https://t.co/5n78WO8pHi"
                                                                    • 小さくても強力: 小規模言語モデル Phi-3 の大きな可能性 - News Center Japan

                                                                      すべての Microsoft 製品 Global Microsoft 365 Teams Copilot Windows Surface Xbox セール 法人向け サポート ソフトウェア Windows アプリ AI OneDrive Outlook Skype OneNote Microsoft Teams PC とデバイス Xbox を購入する アクセサリ VR & 複合現実 エンタメ Xbox Game Pass Ultimate Xbox とゲーム PC ゲーム Windows ゲーム 映画とテレビ番組 法人向け Microsoft Cloud Microsoft Security Azure Dynamics 365 一般法人向け Microsoft 365 Microsoft Industry Microsoft Power Platform Windows 365 開発者

                                                                        小さくても強力: 小規模言語モデル Phi-3 の大きな可能性 - News Center Japan
                                                                      • GitHub - unslothai/unsloth: Finetune Llama 3.2, Mistral, Phi & Gemma LLMs 2-5x faster with 80% less memory

                                                                        You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                          GitHub - unslothai/unsloth: Finetune Llama 3.2, Mistral, Phi & Gemma LLMs 2-5x faster with 80% less memory
                                                                        • New models added to the Phi-3 family, available on Microsoft Azure | Microsoft Azure Blog

                                                                          Products Popular View all products (200+) Azure Virtual Machines Azure Virtual Desktop Azure SQL Microsoft Copilot in Azure PREVIEW Azure AI Services Azure AI Studio Azure Cosmos DB Azure Kubernetes Service (AKS) Azure Arc​ Azure Migrate AI + machine learning Azure Machine Learning Azure AI Services Microsoft Copilot in Azure PREVIEW Azure OpenAI Service Azure AI Studio Azure AI Vision Azure AI Se

                                                                            New models added to the Phi-3 family, available on Microsoft Azure | Microsoft Azure Blog
                                                                          • 【Phi-3.5-vision】ローカルLLMで画像の内容について答える

                                                                            はじめに GMO NIKKOの吉岡です。 前回の記事ではPhi-3-MediumをGPUで動かしてみましたが、今回はもう一つの気になるモデル、Phi-3-visionを紹介します。 新しいバージョン3.5が公開されているので、こちらを試してみます。 Phi-3.5-visionは画像を読み取り、質問から結果を返すLLMとなっています。 サーバー構成・準備 前回の記事でサーバー構成や準備を紹介したので、こちらを参照ください。 LLM LLM:https://huggingface.co/microsoft/Phi-3.5-vision-instruct 4.15B 今回は画像を読み取り結果を返してくれるPhi-3.5-visionを使います。 git clone フォルダを作成し、huggingfaceからcloneします。 大きなファイルがあるため、git lfsが必要です。 mkdir

                                                                              【Phi-3.5-vision】ローカルLLMで画像の内容について答える
                                                                            • microsoft/Phi-3-vision-128k-instruct · Hugging Face

                                                                              Intended Uses Primary use cases The model is intended for broad commercial and research use in English. The model provides uses for general purpose AI systems and applications with visual and text input capabilities which require memory/compute constrained environments; latency bound scenarios; general image understanding; OCR; chart and table understanding. Our model is designed to accelerate res

                                                                                microsoft/Phi-3-vision-128k-instruct · Hugging Face
                                                                              • Microsoft Research、小規模言語モデル(SLM)の「Phi-2」を発表 MITライセンスで商用利用も可能

                                                                                Microsoft Researchの機械学習基盤チームは2023年12月12日(米国時間)、小規模言語モデル(SLM)の「Phi-2」を発表した。 Microsoft Researchは過去数カ月の間、SLMの研究開発を進めてきた。これまで、Pythonコーディングに特化した13億パラメーターを持つ「Phi-1」や、推論能力と言語理解に焦点を当てた「Phi-1.5」をリリースしてきた。Phi-2は27億パラメーターのSLMであり、さまざまなベンチマークにおいて、最大25倍の大規模言語モデル(LLM)に匹敵する性能を持つという。 Phi-2の特徴 Microsoft Researchは、数百億のパラメーターを持つ言語モデルと同等の性能を小規模なモデルで達成することを目的に、Phiの研究開発を進めてきた。Phi-2の特徴として次の2つを挙げている。 関連記事 Googleが次世代AIモデルで

                                                                                  Microsoft Research、小規模言語モデル(SLM)の「Phi-2」を発表 MITライセンスで商用利用も可能
                                                                                • MS、小規模言語モデル「Phi-2」をリリース--最大25倍サイズのモデルの性能に匹敵

                                                                                  印刷する メールで送る テキスト HTML 電子書籍 PDF ダウンロード テキスト 電子書籍 PDF クリップした記事をMyページから読むことができます 生成人工知能(AI)との関連で言語モデルを考えるとき、真っ先に思い浮かぶのは大規模言語モデル(LLM)だろう。「ChatGPT」「Bard」「Copilot」など、人気のチャットボットを支えているのは、こうしたLLMにほかならない。しかし、Microsoftの新しい言語モデルは、小規模言語モデル(SLM)も生成AIの分野で大きな可能性を秘めていることを示している。 同社は米国時間12月12日、常識的な推論と言語理解が可能なSLMの「Phi-2」を発表した。現在、「Azure AI Studio」のモデルカタログで利用可能となっている。 「小規模」という言葉に惑わされてはいけない。Phi-2は27億個のパラメーターを持ち、その数は「Phi

                                                                                    MS、小規模言語モデル「Phi-2」をリリース--最大25倍サイズのモデルの性能に匹敵

                                                                                  新着記事