並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 11 件 / 11件

新着順 人気順

Fugakuの検索結果1 - 11 件 / 11件

  • ついに完成、“究極のポータブルオーディオシステム”Brise Audio「FUGAKU」の衝撃[Sponsored]

      ついに完成、“究極のポータブルオーディオシステム”Brise Audio「FUGAKU」の衝撃[Sponsored]
    • 「富岳」で学習した日本語向け国産AI「Fugaku-LLM」公開

        「富岳」で学習した日本語向け国産AI「Fugaku-LLM」公開
      • スーパーコンピュータ「富岳」で学習した大規模言語モデル「Fugaku-LLM」を公開 : 富士通

        PRESS RELEASE 2024年5月10日 東京工業大学 東北大学 富士通株式会社 理化学研究所 名古屋大学 株式会社サイバーエージェント Kotoba Technolgies Inc. スーパーコンピュータ「富岳」で学習した大規模言語モデル「Fugaku-LLM」を公開 日本語能力に長け、研究・ビジネス利用にも期待 要点 日本の計算機技術を用いて開発した日本語能力に優れた大規模言語モデルを公開 スーパーコンピュータ「富岳」の性能を最大限に活用した分散並列学習を実現 AI基盤モデルを科学研究に活用する「AI for Science」など革新的な研究やビジネスにつながる 概要 東京工業大学 学術国際情報センターの横田理央教授の研究チームと東北大学 大学院情報科学研究科の坂口慶祐准教授、富士通株式会社 人工知能研究所の白幡晃一シニアプロジェクトディレクター、理化学研究所 のMohamed

          スーパーコンピュータ「富岳」で学習した大規模言語モデル「Fugaku-LLM」を公開 : 富士通
        • ollamaで Fugaku-LLM を動かす

          昨日公開された Fugaku-LLM は珍しく公式が GGUF ファイルを配布してくれているので、これを使って手元の Macbook で動かしてみます。 準備: ollama をインストールする 以下のインストーラに従ってアプリケーションを入手できます。 アプリケーションの指示に従って、CLI 上でも ollama コマンドを使えるようにしておきます。 ステップ1: Fugaku-LLM のファイルをダウンロードする からお好みのファイルを選びます。 とりあえず、一番サイズの小さい(おそらく量子化が一番効いている) 「Fugaku-LLM-13B-instruct-0325b-q5_k_m.gguf」を選びます。 の download ボタンからダウンロード。 ステップ2: Modelfile を作成する モデルファイルのダウンロードが終わったら、同じディレクトリに、Modelfile と

            ollamaで Fugaku-LLM を動かす
          • スパコン「富岳」で学習した日本語特化大規模言語モデル「Fugaku-LLM」が公開される

            スーパーコンピューター「富岳」を用いて学習した130億パラメータの大規模言語モデル「Fugaku-LLM」が2024年5月10日(金)に公開されました。Fugaku-LLMは既存の大規模言語モデルに頼らず独自の学習データを用いて学習しており、既存の日本語特化大規模言語モデルと比べて高い性能を発揮することがアピールされています。 スーパーコンピュータ「富岳」で学習した大規模言語モデル「Fugaku-LLM」を公開 日本語能力に長け、研究・ビジネス利用にも期待 | 東工大ニュース | 東京工業大学 https://www.titech.ac.jp/news/2024/069217 スーパーコンピュータ「富岳」で学習した大規模言語モデル「Fugaku-LLM」を公開 : 富士通 https://pr.fujitsu.com/jp/news/2024/05/10.html Fugaku-LLMは2

              スパコン「富岳」で学習した日本語特化大規模言語モデル「Fugaku-LLM」が公開される
            • スーパーコンピュータ「富岳」で学習した大規模言語モデル「Fugaku-LLM」を公開 日本語能力に長け、研究・ビジネス利用にも期待

              要点 日本の計算機技術を用いて開発した日本語能力に優れた大規模言語モデルを公開 スーパーコンピュータ「富岳」の性能を最大限に活用した分散並列学習を実現 AI基盤モデルを科学研究に活用する「AI for Science」など革新的な研究やビジネスにつながる 概要 東京工業大学 学術国際情報センターの横田理央教授の研究チームと東北大学 大学院情報科学研究科の坂口慶祐准教授、富士通株式会社 人工知能研究所の白幡晃一シニアプロジェクトディレクター、理化学研究所 のMohamed Wahib(モハメド・ワヒブ)チームリーダー、名古屋大学 大学院工学研究科の西口浩司准教授、株式会社サイバーエージェント AI事業本部AI Labの佐々木翔大リサーチサイエンティスト、Kotoba Technologies Inc. の小島熙之CEOは、理化学研究所のスーパーコンピュータ「富岳」を用いて学習した日本語能力に

                スーパーコンピュータ「富岳」で学習した大規模言語モデル「Fugaku-LLM」を公開 日本語能力に長け、研究・ビジネス利用にも期待
              • Fugaku-LLMをollamaで利用する

                国産LLMであるFugaku-LLMが2024-05-10に公開されました。 LLMのチャットアプリとしてインストールが簡単で人気のollamaに、Fugaku-LLMのモデルを登録して使うことができたので、その手順を紹介します。 動作確認環境 OS Ubuntu 22.04 Desktop および WSL上のUbuntu-22.04 ollama v0.1.34 (2024-05-10時点の最新バージョン) (1) ollamaをインストールする (まだollamaをインストールしていなければ) ollamaの公式サイトに行って「Download↓」をクリックし、 OSに応じたインストーラーを入手してインストールします。 (WSL上のUbuntu-22.04の場合はもちろんLinuxです) (2) Fugaku-LLMのGGUFファイルをダウンロードする Fugaku-LLMには2024

                  Fugaku-LLMをollamaで利用する
                • Why Fugaku, Japan’s fastest supercomputer, went virtual on AWS | Amazon Web Services

                  AWS Public Sector Blog Why Fugaku, Japan’s fastest supercomputer, went virtual on AWS When you think of climbing one of the world’s most famous mountain peaks, ease of access isn’t the first thing that comes to mind. While Mount Fuji in Japan is famous for its height and width, it is also reachable by novice hikers without lots of time on their hands due to the nation’s efforts to make it accessib

                    Why Fugaku, Japan’s fastest supercomputer, went virtual on AWS | Amazon Web Services
                  • 無料版GoogleColabで13BのLLMを動かす方法(OOMにならない!/Fugaku-LLM-13Bも動いたぞォ!) - Qiita

                    無料版GoogleColabで13BのLLMを動かす方法(OOMにならない!/Fugaku-LLM-13Bも動いたぞォ!)GoogleColaboratoryLLMMistralFugaku-LLM 無料版GoogleColabで7Bや13BのLLMを動かす方法(OOMにならない!) 結論 bitsandbytes(量子化)で4bitや8bitでロードすればいい (メモリの消費量が抑えられる代わりに、LLMの精度は落ちます) AutoModelForCausalLM.from_pretrainedの引数に load_in_8bit=True,や load_in_4bit=True,を追加するだけ (7Bはbitsandbytes使わなくてもGPUで動かせたため、消しました) 成功例 accelerateとbitsandbytesのインストール なぜか、普通にインストールすると謎のエラーが出

                      無料版GoogleColabで13BのLLMを動かす方法(OOMにならない!/Fugaku-LLM-13Bも動いたぞォ!) - Qiita
                    • Fugaku-LLM/Fugaku-LLM-13B · Hugging Face

                      Fugaku-LLM利用規約\n この利用規約(以下「本規約」といいます)は、富士通株式会社、国立研究開発法人理化学研究所、国立大学法人東京工業大学、国立大学法人東北大学、株式会社サイバーエージェント、国立大学法人東海国立大学機構、及び株式会社Kotoba Technologies Japan (以下「開発者」といいます)による、スーパーコンピュータ「富岳」政策対応枠における大規模言語モデル分散並列学習手法の開発の成果物として公開する大規模言語モデル(以下「Fugaku-LLM」といいます)の利用に関する条件を定めるものです。Fugaku-LLMの利用者(以下「利用者」といいます)は、本規約に同意した上でFugaku-LLMを利用するものとします。 \n\n第1条(利用許諾) Fugaku-LLMの利用者は、本規約に従い、Fugaku-LLMを商用または非商用目的を問わず利用することができ

                        Fugaku-LLM/Fugaku-LLM-13B · Hugging Face
                      • 究極ポータブルオーディオ「FUGAKU」、ティアックのディスクリートDAC兼ヘッドフォンアンプも

                          究極ポータブルオーディオ「FUGAKU」、ティアックのディスクリートDAC兼ヘッドフォンアンプも
                        1