並び順

ブックマーク数

期間指定

  • から
  • まで

161 - 200 件 / 603件

新着順 人気順

GPUの検索結果161 - 200 件 / 603件

  • NVIDIA「Chat With RTX」を、RTX4060搭載ノートPCで動かす〜ローカルLLMでRAGを実現【イニシャルB】

      NVIDIA「Chat With RTX」を、RTX4060搭載ノートPCで動かす〜ローカルLLMでRAGを実現【イニシャルB】
    • 【本日みつけたお買い得品】Ryzen 5 5560U搭載ミニPCがN100の価格に迫る?3万9,840円に

        【本日みつけたお買い得品】Ryzen 5 5560U搭載ミニPCがN100の価格に迫る?3万9,840円に
      • 1つのGPU/CPUで推論可能な超軽量LLM「tsuzumi」を24年3月から提供へ

        NTTは2023年11月、同社が独自開発した大規模言語モデル(LLM)「tsuzumi」を2024年3月から提供開始すると発表した。 tsuzumiのコンセプトについて、NTT 執行役員 研究企画部門長の木下真吾氏は「専門知識を持った、パラメーターサイズの小さなLLMの実現だ。tsuzumiは、パラメーターサイズを抑えつつ、言語学習データの質と量を向上させることで、軽量化と専門性を両立した」と語った。 専門知識を持った軽量LLM「tsuzumi」 tsuzumiは、パラメーターサイズが6億または70億と軽量でありながら、「世界トップクラス」(同社)の日本語処理性能を持つLLMだ。軽量なため、1つのGPUやCPUで推論動作が可能で、学習やチューニングに必要な時間やコストを軽減できるという。日本語/英語に対応する他、表が含まれる誓約書や契約書といった図表文書の視覚読解など、さまざまな形式にも対

          1つのGPU/CPUで推論可能な超軽量LLM「tsuzumi」を24年3月から提供へ
        • 富士通、プログラム処理中でもCPUとGPUを切り替える世界初の技術。GPU不足に対応

            富士通、プログラム処理中でもCPUとGPUを切り替える世界初の技術。GPU不足に対応
          • ハイエンドノートの性能を決めるのは、CPU/GPUそのものよりも"その冷却能力"という事実 ~薄型/軽量で高性能なASUS「Zenbook Pro 14 OLED UX6404VI」で実際に検証[Sponsored]

              ハイエンドノートの性能を決めるのは、CPU/GPUそのものよりも"その冷却能力"という事実 ~薄型/軽量で高性能なASUS「Zenbook Pro 14 OLED UX6404VI」で実際に検証[Sponsored]
            • Remixを使い始めた話 | Money Forward Kessai TECH BLOG

              こんにちは、23卒の新卒エンジニアのfujinoです。今回は弊社のサービスでReactのフレームワークであるRemixを使い始めた話をしようと思います。 背景 弊社では今までVue.jsのフレームワークであるNuxt.jsを用いてフロントエンドを実装していました。 これは、採用当時は生のhtmlが使えるのが良いと思っていたことや、Vue.jsの経験のあるフロントエンジニアがチームにいたことが理由でした。 しかし、最近ではTypescriptとの親和性や、コミュニティの大きさなどの理由からReactの方が勢いがあるように感じます。 弊社でも少し前からReactに移行することを決定し、現在進行形でNuxt.jsからReactへの移行プロジェクトを進めています。 Reactの主要なフレームワークとして、Next.jsとRemixが挙げられます。 両者の違いとして、Next.jsはSSG(Stat

                Remixを使い始めた話 | Money Forward Kessai TECH BLOG
              • NVIDIA、2〜4月売上高3.6倍 AI半導体「1強」予想上回る - 日本経済新聞

                【シリコンバレー=山田遼太郎】米半導体大手エヌビディアが22日発表した2024年2〜4月期決算は純利益が前年同期と比べ7.3倍の148億8100万ドル(約2兆3300億円)、売上高が同3.6倍の260億4400万ドルだった。市場予想を上回り、人工知能(AI)向け半導体の需要の強さを示した。日米などの株式市場で半導体関連銘柄の押し上げ要因になりそうだ。市場予想は24年2〜4月期の売上高が246億

                  NVIDIA、2〜4月売上高3.6倍 AI半導体「1強」予想上回る - 日本経済新聞
                • NVIDIA RTX環境での「Stable Diffusion」はVRAMを使い果たすとDRAMも使えるが、逆にVRAMだけにもできる

                  NVIDIA RTX環境での「Stable Diffusion」はVRAMを使い果たすとDRAMも使えるが、逆にVRAMだけにもできる 米NVIDIAは10月31日、サポートページ内にあるナレッジベースに掲載する形で、「Stable Diffusion」に関する動作の仕様について情報を公開した。生成AIを手軽に楽しめる「Stable Diffusion」におけるTipsがまとまっている。 NVIDIA RTX環境での「Stable Diffusion」はVRAMを使い果たすとDRAMも使えるが、逆にVRAMだけにもできる Stable Diffusionは、利用にあたって大容量のGPUメモリ(VRAM)が必要になる。NVIDIAではおおよそ6GB以上必要であるとしているが、モデルやスクリプトによってはより大規模なGPUメモリが必要になることもある。これを受けてバージョン536.40以降のド

                    NVIDIA RTX環境での「Stable Diffusion」はVRAMを使い果たすとDRAMも使えるが、逆にVRAMだけにもできる
                  • 恐るべし、今どきの「パスワード破り」の手口:780th Lap

                    パスワードレス認証を採用するコンシューマー向けサービスが増えてきたが、まだパスワードから離れられないのが現状だ。ある調査から、最近の「パスワード破り」の手口が見えてきた。 ネットサービスのログイン時に求められるパスワードの入力。パスワードの設定は適度な長さと推測されにくいものを、というのが定石だ。 サービスごとにいちいちパスワードを変更するのも面倒なため、同じパスワードを使い回している人も少なくないだろう(セキュリティ対策上は避けるよう勧告されている)。ただ、1つのサービスでパスワードが流出すると、一気に他のサービスのアカウントも乗っ取られる恐れがある。 悪意あるハッカーたちは、いつでもユーザーのパスワードを手ぐすね引いて狙っている。あるものを活用することで、ハッシュ値化されたパスワードでも容易に解析されてしまう恐れがあるという。 サイバーセキュリティ企業であるHive Systemは20

                      恐るべし、今どきの「パスワード破り」の手口:780th Lap
                    • 無料のチャットボットAI「Chat With RTX」をNVIDIAがリリース、GeForce RTX GPU搭載PCでローカル動作が可能

                      NVIDIAがGeForce RTX GPUで動作する技術デモ「Chat with RTX」を無料でリリースしました。ユーザーはChat with RTXを独自のコンテンツでパーソナライズでき、システム要件はVRAMが8GB以上のRTX 30シリーズ以降のGPUを搭載したWindowsマシンとなっています。 Chat with RTX Now Free to Download | NVIDIA Blog https://blogs.nvidia.com/blog/chat-with-rtx-available-now/ NVIDIA Brings Generative AI to Millions, With Tensor Core GPUs, LLMs, Tools for RTX PCs and Workstations | NVIDIA Newsroom https://nvidia

                        無料のチャットボットAI「Chat With RTX」をNVIDIAがリリース、GeForce RTX GPU搭載PCでローカル動作が可能
                      • 【特集】 ついにRadeonの時代が来た!? RX 7600とGeForce RTX 4060の比較で見えたAFMFの強み。これで認識が変わるかも

                          【特集】 ついにRadeonの時代が来た!? RX 7600とGeForce RTX 4060の比較で見えたAFMFの強み。これで認識が変わるかも
                        • GPU・CUDAを活用して数値計算やAIのトレーニングを高速化するのに必要な基礎知識のコード例付きまとめ

                          GPUはCPUよりもはるかに多くのコアを備えており、多数の並列処理を行う事が可能です。そうしたGPUの性能を活用するために必要な知識を、ITエンジニアのリジュル・ラジェシュさんがブログにまとめています。 GPU Survival Toolkit for the AI age: The bare minimum every developer must know https://journal.hexmos.com/gpu-survival-toolkit/ 現代のAIモデルで使用されているTransformerアーキテクチャは並列処理を活用して大きく性能を向上させており、そうしたAIの開発に関わる場合は並列処理についての理解が必須になってきます。CPUは通常シングルスレッドの逐次処理性能が高まるように設計されており、複雑なAIモデルで必要となる、多数の並列計算を効率的に分散して実行するのに

                            GPU・CUDAを活用して数値計算やAIのトレーニングを高速化するのに必要な基礎知識のコード例付きまとめ
                          • Cloud RunとCloud PubSubでサーバレスなデータ基盤2024 with Terraform / Cloud Run and PubSub with Terraform

                            Google Cloudのサーバレスなサービスでデータ基盤を作った話.

                              Cloud RunとCloud PubSubでサーバレスなデータ基盤2024 with Terraform / Cloud Run and PubSub with Terraform
                            • TFRecordとWebDatasetを使った分散並列学習とパフォーマンス調査

                              はじめに Turing株式会社の自動運転MLチームでエンジニアをしている越智 (@chizu_potato)と塩塚 (@shiboutyoshoku) です。 Turingが目指す自動運転は、大量のデータで学習された非常に賢い機械学習モデルを活用することです。そのために、走行パートナーの方たちと協力して創業時からこれまで大量の走行データを取得してきました。走行データは車両に取り付けられた複数カメラによる360度をカバーした動画と、そのときの速度やGPSなどの走行ログを含んでいます。データサイズは80TBを超え、時間換算で3500時間程度です。 これだけのデータサイズでモデルを学習するためには、1枚のGPUだけで頑張るには限界があり複数のGPU (multi-GPU) による分散並列学習が必要となってきます。しかし、ただ分散並列学習を行うだけではmulti-GPUに対し、データの入出力 (I

                                TFRecordとWebDatasetを使った分散並列学習とパフォーマンス調査
                              • さくらインターネット、生成AI向けクラウドサービス「高火力 PHY(ファイ)」提供開始。NVIDIA H100を8基搭載、200GbE×4本接続可能なベアメタルサーバ

                                さくらインターネットは、生成AI向けクラウドサービス「高火力」の第一弾として、ベアメタルシリーズ「高火力 PHY(ファイ)」を2024年1月31日より提供開始すると発表しました。 同社は昨年(2023年)6月に経済産業省から、経済安全保障推進法に基づく特定重要物資である「クラウドプログラム」の供給確保計画に関する認定を受けました。同社はこれにより生成AI向けのクラウドサービスに3年間で130億円の投資をすると発表しています。 今回提供が開始される「高火力」クラウドサービスは、その供給確保計画に基づくものとされています。 提供されるサーバのスペックは、CPUがインテルXeon Platinum 8480+を2基(合計112コア)搭載し、メモリ容量は2TB、ローカルストレージはOS用が400GBのNVMe SSDが2枚でRAID1構成、非OS用が7.68TBのNVMe SSDが4枚。 GPUと

                                  さくらインターネット、生成AI向けクラウドサービス「高火力 PHY(ファイ)」提供開始。NVIDIA H100を8基搭載、200GbE×4本接続可能なベアメタルサーバ
                                • GeForce 536.67 ドライバ 不具合情報。ブラックスクリーンは直らず。536.40でハードウェア損傷か [Update 2] | ニッチなPCゲーマーの環境構築Z

                                  GeForce 536.67ドライバの不具合情報です。NVIDIA公式の既知の不具合と、海外のGeForceフォーラムで目に付いたユーザー報告を意訳しています。ユーザー報告は全ての環境で発生するものとは限らず、環境依存の可能性もあります。同様の不具合にお悩みの方の参考になりましたら幸いです。 更新履歴 [記事初公開日: 2023/7/20] ① 536.67にしてからブラックスクリーンが発生するようになったとのユーザー報告を追記。536.67でも修正されていない模様。 | Dead Spaceがクラッシュするという既知の不具合1件追加。 [2023/7/23] ② 既知の不具合を2件追加。 [2023/8/9] [New]NVIDIA公式: 既知の不具合 (リリースノート + フォーラム)既知の不具合Dead Space (2023)のプレイ中にゲームがクラッシュする場合があります [Ne

                                    GeForce 536.67 ドライバ 不具合情報。ブラックスクリーンは直らず。536.40でハードウェア損傷か [Update 2] | ニッチなPCゲーマーの環境構築Z
                                  • Huaweiの新ハイエンドスマホ「Pura 70 Ultra」を試す 制裁下でこの性能は“魔法を使っている”と思わせるほど

                                    Huaweiの新ハイエンドスマホ「Pura 70 Ultra」を試す 制裁下でこの性能は“魔法を使っている”と思わせるほど(1/4 ページ) GalaxyやXiaomiといった新型スマートフォンに沸き立つ中、中国ではHuaweiの最新スマートフォン「Pura 70」シリーズが話題を集めている。Puraシリーズは、従来の「P」シリーズから名称を変更したハイエンド系のシリーズ。 今回、筆者は「Pura 70 Ultra」の実機を入手したので、レビューしよう。今回のレビューは電波法第103条の6の解釈のもと「海外で開通した携帯電話」を持ち込んで確認を行った。 中国製造のKirin 9010を搭載して制裁を回避 十分なパフォーマンスを発揮 まずは、主なスペックを見ていこう。 プロセッサ:HiSilicon Kirin 9010 メモリ:12GB ストレージ:512GB/1TB 画面:6.76型 フ

                                      Huaweiの新ハイエンドスマホ「Pura 70 Ultra」を試す 制裁下でこの性能は“魔法を使っている”と思わせるほど
                                    • NVIDIAとインテルとIBMはどうして差がついてきたのか、あるいは富士通「富岳」CPUが民間普及しなかったのは何故か

                                      NVIDIAと、インテル・IBMはどうして差がついたのか、疑問に思う。 AIで言えば、IBMのWatsonがずっと先行していた。 AIはニューラルネットワークを模倣していると言われ、ニューロモーフィックというチップを、IBMは作り、その後、メンバーが移籍してインテルも作った。 現在、ニューラルネットワークとは違うものになったが、勝っているのはNVIDIAになっている。 先日、1.58bitのBitNetが話題になったが、LLMではないが昔BinaryConnectで0.68bitまで下げる案を出したのもIBMのメンバーだ。 ハッカーニュースでBitNetについてIBMだった人がコメントしている。IBMはそれなりに早かったはずだ。 https://news.ycombinator.com/item?id=39544500 普通のGPUの会社だと、ゲーム用のGPUボードだけを作っていたと思うが

                                        NVIDIAとインテルとIBMはどうして差がついてきたのか、あるいは富士通「富岳」CPUが民間普及しなかったのは何故か
                                      • 累計3.3億DL突破「ibisPaint」GPUベース、C++ワンソースを選んだ理由は?成功を支えた技術選定の裏側

                                        株式会社アイビス 代表取締役社長 神谷 栄治 ソフトウェア技術者・経営者。2000年に「株式会社アイビス」を創業。フィーチャーフォン向けアプリの開発を経て、2011年にスマホ向けペイントアプリ「ibisPaint」をリリース。2023年現在も開発組織をリードしている 株式会社アイビスが提供する「ibisPaint(アイビスペイント)」は、高度な機能と使いやすさ、優れた安定性を兼ね備えたペイントアプリとして世界中のユーザーに愛されています。 リリースは2011年。当時からGPUベースで、開発言語にはC++を採用し、UIパーツやライブラリもすべて自社で制作しているという。ibisPaintの企画・設計・開発を一手に担った創業者の神谷栄治氏は「この技術選定が、現在のibisPaintの発展につながった」と語ります。 2011年当時のスマホアプリ開発において異例の技術選定の意図は? 全世界での累計

                                          累計3.3億DL突破「ibisPaint」GPUベース、C++ワンソースを選んだ理由は?成功を支えた技術選定の裏側
                                        • NVIDIA、GPUプラットフォーム「Blackwell」発表 「兆パラメータ規模のAIモデル実現」

                                          プラットフォームに搭載する「GB200 Grace Blackwell Superchip」は、新GPU「B200」(2080億個のトランジスタを搭載し、現行の「H100」と比較して、AI向けの作業で5倍の処理能力を発揮するGPU)を2基と1基のGrace CPUを組み合わせたもの。 NVIDIAによると、1兆8000億パラメータのAIモデルをトレーニングするには、Hopper GPUでは8000個のGPUで15メガワットの電力が必要だったが、新スーパーチップであれば2000個で可能で、消費電力は4メガワットで済むという。 NVIDIAはGB200を、水冷ラックスケールシステム「NVL72」などで提供する。これは第5世代NVLinkで接続された72個のBlackwel GPUと36個のGrace CPUを含む36個のGrace Blackwellスーパーチップを搭載する。 Blackwel

                                            NVIDIA、GPUプラットフォーム「Blackwell」発表 「兆パラメータ規模のAIモデル実現」
                                          • 【笠原一輝のユビキタス情報局】 「Intel 18A」はTSMCの2nmに追いつく秘策。Intelの未来がかかった新プロセスノードは何がすごいのか?

                                              【笠原一輝のユビキタス情報局】 「Intel 18A」はTSMCの2nmに追いつく秘策。Intelの未来がかかった新プロセスノードは何がすごいのか?
                                            • AMD新CPUの「Ryzen AI 300」は、12コアCPUとSnapdragon Xを超えるNPUを搭載

                                                AMD新CPUの「Ryzen AI 300」は、12コアCPUとSnapdragon Xを超えるNPUを搭載
                                              • 【Phi-3-Medium】GPU2台構成でローカルLLMを動かす【Ubuntu24】

                                                はじめに GMO NIKKOの吉岡です。 みなさん、生成AIは活用してますか? ChatGPTに始まり、Claude3やGeminiなど、実用的なAIがどんどん出てきてますね。 自分も使ってはきましたが、課金が気になってしまいます。 これではサービスに組み込むことは難しいですよね。 そのためローカルで動くLLMを追ってきましたが、今年に入って実用的な日本語を返すことができるモデルがいくつか出てきているので、サーバー構成からインストール方法、LLMの起動まで紹介しようと思います。 ローカルLLMを動かす上で一番重要なのはGPUのVRAMです。 LLMは7B、13B、70Bモデルが多いですが、量子化しない場合、必要なVRAM容量は動かすモデルの大体2倍なので、13Bモデルでは26GのVRAMが必要です。 NVIDIAのGPUを使ったCUDAが前提になっているのですが、一般向けでは24Gモデルが

                                                  【Phi-3-Medium】GPU2台構成でローカルLLMを動かす【Ubuntu24】
                                                • 中国がアメリカに禁じられたはずのNVIDIA製AIチップをDell・Gigabyte・Supermicro製サーバーから取得していたことが明らかに

                                                  中国が高性能チップをAI搭載兵器やサイバー攻撃ツールなどに軍事転用することへの懸念から、アメリカ政府はNVIDIAなどの半導体メーカーに対し、中国への高性能チップ輸出を規制しています。しかし、中国国内の一部の研究機関や大学では、NVIDIA製チップが搭載されたDellやGigabyte、Supermicro製のサーバーを再販業者から仕入れることでこの規制を回避していることが指摘されています。 China acquired recently banned Nvidia chips in Super Micro, Dell servers, tenders show | Reuters https://www.reuters.com/world/china/china-acquired-recently-banned-nvidia-chips-super-micro-dell-servers-

                                                    中国がアメリカに禁じられたはずのNVIDIA製AIチップをDell・Gigabyte・Supermicro製サーバーから取得していたことが明らかに
                                                  • クライアントから「業者扱い」されないために | 株式会社THE MOLTS

                                                    最近、他の支援会社ではたらく後輩たちから「クライアントから “業者扱い” されてしまう」という相談をたびたび受けました。 私も支援会社歴が長いので、「業者扱いされたくない」という気持ちはよくわかります。クライアントが上・支援会社が下というコミュニケーションが続けば、担当者はどんどん疲弊してしまう。しかも、問題はそれだけじゃありません。 業者扱いされると、支援会社もつい「指示されたことだけをやればいい」モードに入りがちです。いつしかクライアントの「御用聞き」と化してしまう。そうなれば、期待以上の大きな成果なんて生まれません。それに「御用聞き」ならいくらでも替えがきくので、取引も長くは続かない。このような、クライアントも支援会社もハッピーじゃない案件をいくつか見てきました。 THE MOLTSという支援会社でクライアントの成果に向き合ってきた自分の経験上、「クライアントと支援会社が協働し、物事

                                                    • Apple Silicon MacのCPU E-/P-CoreやGPU、ANE、メモリ使用率、消費電力などを確認できるGo言語で書かれたターミナルベースのモニタリングツール「mactop」がリリース。

                                                      Apple Silicon MacのCPU E-/P-Coreや、GPU、消費電力などを確認できるターミナルベースのモニタリングツール「mactop」がリリースされています。詳細は以下から。 Apple Silicon Macでベンチマークや負荷の高いアプリを実行する際、Apple SiliconのCPUやGPU、ANE(Apple Neural Engine)、メモリ使用率、消費電力などを確認したいときがありますが、その用際に便利なターミナルベースのモニタリングツール「mactop」がリリースされています。 mactop is a terminal-based monitoring tool “top” designed to display real-time metrics for Apple Silicon chips. It provides a simple and effic

                                                        Apple Silicon MacのCPU E-/P-CoreやGPU、ANE、メモリ使用率、消費電力などを確認できるGo言語で書かれたターミナルベースのモニタリングツール「mactop」がリリース。
                                                      • GPU禁輸措置で追い詰められる中国と大規模言語モデルの発展

                                                        GPU禁輸措置で追い詰められる中国と大規模言語モデルの発展 2023.11.01 Updated by Ryo Shimizu on November 1, 2023, 09:15 am JST アメリカがGPUを重要物資として中国に対して禁輸措置を行うとの意向を受けて、中国国内ではA800 GPUの価格が一枚あたり50万人民元(約1000万円)に達するなどのパニックが起きたようだ。これは通常の価格の5倍にあたる。 A800は、そもそもアメリカ政府の意向を受けて中国市場向けにデチューンした(性能をわざと落とした)モデルで、世界的ベストセラーのA100の70%程度の性能とされている。 しかし中国国内ではAI開発が非常に活発であり、合法的に使えるA800を大量に確保したい中国側の事情と、軍事転用も可能な重要戦略物資を中国に売りたくないアメリカ政府の意向が真正面から対立する形となっている。 筆者

                                                          GPU禁輸措置で追い詰められる中国と大規模言語モデルの発展
                                                        • Ryzenがコスパ高いのは分かった。でも"AMD機はUSBが弱い"の都市伝説はどうなの? ~10万円台の高コスパゲーミングノート「NEXTGEAR」で10種のUSB機器を接続テスト[Sponsored]

                                                            Ryzenがコスパ高いのは分かった。でも"AMD機はUSBが弱い"の都市伝説はどうなの? ~10万円台の高コスパゲーミングノート「NEXTGEAR」で10種のUSB機器を接続テスト[Sponsored]
                                                          • Acer、水冷なのに空冷より冷えないGeForce RTX 4090を作ってしまう。「熱い」「遅い」「うるさい」という最悪の3拍子が揃ったPredator Orion X | ニッチなPCゲーマーの環境構築Z

                                                            Acerは、水冷にも関わらず空冷より冷えないGeForce RTX 4090を作ってしまいました。 Acerは『Predator Orion X』という完成品PCを販売しており、そのグラボには水冷タイプのGeForce RTX 4090が採用されています。そのグラボがこちら。 Acer GeForce RTX 4090 Predator Orion X 一般的な水冷タイプのグラボは、GPUクーラーとラジエーターが別々になっていますが、Acerのグラボは斬新なことにGPUクーラー・ポンプ・ラジエーターが一体型となっており、非常にスッキリとしたユニークな構造をしています。 しかし、この構造がよくなかったのか、その冷却性能は惨憺たるものでした。海外メディアのKitGuruにより測定されたストレステストの結果がこちら。ストレステストはMetro Exodus Enhanced Editionを30

                                                              Acer、水冷なのに空冷より冷えないGeForce RTX 4090を作ってしまう。「熱い」「遅い」「うるさい」という最悪の3拍子が揃ったPredator Orion X | ニッチなPCゲーマーの環境構築Z
                                                            • 株価爆上げ「さくらインターネット」が描く勝ち筋

                                                              コンテンツブロックが有効であることを検知しました。 このサイトを利用するには、コンテンツブロック機能(広告ブロック機能を持つ拡張機能等)を無効にしてページを再読み込みしてください。 ✕

                                                                株価爆上げ「さくらインターネット」が描く勝ち筋
                                                              • ほぼ全GPUにサイドチャネル攻撃の脆弱性。ただし影響は限定的

                                                                  ほぼ全GPUにサイドチャネル攻撃の脆弱性。ただし影響は限定的
                                                                • OpenAIの共同設立者が「GPT-2」をわずか90分の時間と3100円の費用で再現するレポートを公開

                                                                  2019年に公開されるやいなや「危険すぎる」と話題になったOpenAIの「GPT-2」を、ゼロから作成したレポートが公開されました。作成にかかった時間は、1時間14ドル(約2200円)のクラウドコンピューティングサービスで1時間半だったため、総コストは約20ドル(約3100円)に収まっています。 Reproducing GPT-2 (124M) in llm.c in 90 minutes for $20 · karpathy/llm.c · Discussion #481 · GitHub https://github.com/karpathy/llm.c/discussions/481 # Reproduce GPT-2 (124M) in llm.c in 90 minutes for $20 ✨ The GPT-2 (124M) is the smallest model in t

                                                                    OpenAIの共同設立者が「GPT-2」をわずか90分の時間と3100円の費用で再現するレポートを公開
                                                                  • MetaのザッカーバーグCEO、AGI開発宣言 「AIとメタバースは繋がっている」

                                                                    米Metaのマーク・ザッカーバーグCEOは1月18日(現地時間)、Threadsへの投稿で、同社の長期的なビジョンを、「general intelligence」の構築と、そのオープンソース化により、誰もが恩恵を得られるようにすることだと語った。 ザッカーバーグ氏がgeneral intelligenceとしているのは、米OpenAIや米GoogleがAGI(汎用人工知能)と呼ぶ、人間と同じような汎用的な知能を持つAIを指す。(本稿ではAGIとする。) ザッカーバーグ氏はこれを実現するために、2024年末までに米NVIDIAのHopper採用GPU「H100」を35万枚投入すると語った。 このデータセンターで、次期LLM「Llama 3」を「責任を持って安全にトレーニング」していくという。 同氏はまた、ユーザーが日常的にAGIを使うために、新たなデバイスを必要とすると語った。 「これにより

                                                                      MetaのザッカーバーグCEO、AGI開発宣言 「AIとメタバースは繋がっている」
                                                                    • インストール不要でLlama 3やMistralなどオープンソースLLMをブラウザで動かせるチャットボット「Secret Llama」が登場

                                                                      Llama 3やMistral-7Bといったオープンソースの大規模言語モデル(LLM)をサポートし、WebGPUを使ってブラウザ上で完全に動作するチャットボット「Secret Llama」が公開されています。 Secret Llama https://secretllama.com/ GitHub - abi/secret-llama: Fully private LLM chatbot that runs entirely with a browser with no server needed. Supports Mistral and LLama 3. https://github.com/abi/secret-llama 実際にSecret LlamaのデモサイトでLlama 3を動作させて会話してみたところが以下のムービー。 大規模言語モデルを完全にブラウザで動作できる「Secr

                                                                        インストール不要でLlama 3やMistralなどオープンソースLLMをブラウザで動かせるチャットボット「Secret Llama」が登場
                                                                      • AMD、生成AIでNVIDIA H100を上回る性能のGPU「Instinct MI300」

                                                                          AMD、生成AIでNVIDIA H100を上回る性能のGPU「Instinct MI300」
                                                                        • 「エヌビディアもアームも不要」、CPU設計の大御所がAI専用機を開発中

                                                                          「我々はオープン技術だけで、AI(人工知能)計算に最適のAIコンピューターを設計・開発していく。4社抜きで可能だ」。 カナダのスタートアップ、テンストレントのジム・ケラーCEO(最高経営責任者)は断言する。4社とは米国のエヌビディア、インテル、アドバンスト・マイクロ・デバイセズ(AMD)、英アームを指す。GPU(画像処理半導体)世界シェアの80%をエヌビディアが占めるなど、誰もが皆、4社の製品を何らかの形で使っている。4社不要とは大胆だが、ケラーCEOは「逆転の流れを(私も業界も)経験ずみ」と力強く語った。 半導体の猛者が続々集まる ケラーCEOはプロセッサー設計の大御所と呼ばれる。米ディジタル・イクイップメント(当時)の高性能プロセッサーAlphaを設計したのを皮切りに、AMD、米アップル、米テスラ(自動運転向けチップ)、インテルなどで、プロセッサー設計に従事し、手腕を発揮してきた。 テ

                                                                            「エヌビディアもアームも不要」、CPU設計の大御所がAI専用機を開発中
                                                                          • 「NVIDIA H100 GPU」を2万4576基搭載して「Llama 3」などのトレーニングに活用されているGPUクラスターの情報をMetaが公開

                                                                            「AI開発をリードするということは、ハードウェアインフラへの投資でリードするということ」として、MetaがAIのための投資として行っている、2万4000基以上のGPUを搭載したデータセンタースケールのクラスターの情報を明らかにしました。 Building Meta’s GenAI Infrastructure - Engineering at Meta https://engineering.fb.com/2024/03/12/data-center-engineering/building-metas-genai-infrastructure/ Meta reveals details of two new 24k GPU AI clusters - DCD https://www.datacenterdynamics.com/en/news/meta-reveals-details-o

                                                                              「NVIDIA H100 GPU」を2万4576基搭載して「Llama 3」などのトレーニングに活用されているGPUクラスターの情報をMetaが公開
                                                                            • リーナス・トーバルズ氏、「LinuxでAMDのfTPM機能を無効化するのはどうか」と発言

                                                                              Linuxの開発者であるLinus Torvalds氏は7月31日(現地時間)、メーリングリストに「Let's just disable the stupid fTPM hwrnd thing(バカなfTPMを無効化しよう)」と題したメッセージを送信した。AMD Ryzenプロセッサが内蔵するfTPMのバグがLinuxカーネルに問題を起こしており、fTPMを使う機能を無効化すべきだという。 リーナス・トーバルズ氏、「AMDのfTPM機能を無効化するのはどうか」と発言 画像はASUS YouTubeから Ryzenプロセッサにはセキュリティ機能としてfTPM(IntelではIntel PTTを内蔵)が内蔵されており、Windows 11のインストールにおいては要件としても掲出されている。このAMD fTPMのハードウェア乱数生成器にバグが存在していたことが発端となっており、一部の環境でシステ

                                                                                リーナス・トーバルズ氏、「LinuxでAMDのfTPM機能を無効化するのはどうか」と発言
                                                                              • 謎のAMD製サーバー用CPU「EPYC 7C13」を買ったらコスパ良好な掘り出し物だったとのレポート

                                                                                AMDの「AMD EPYC 7C13」は、価格が2000ドル(約30万円)前後とサーバー向けCPUとしては安価なのにもかかわらず、負荷テストで優れた結果を出したと、テクノロジー系メディアのServe The Homeが報じています。 AMD EPYC 7C13 is a Surprisingly Cheap and Good CPU https://www.servethehome.com/amd-epyc-7c13-is-a-surprisingly-cheap-and-good-cpu/ Serve The Homeは、通販サイト・Neweggでそれまで見たことがなかった「AMD EPYC 7C13」というCPUを搭載したサーバーを発見し、さっそく数台購入してその性能のテストしてみました。 lscpuコマンドを用いてCPUの情報を表示すると、AMD EPYC 7C13は64コアと256

                                                                                  謎のAMD製サーバー用CPU「EPYC 7C13」を買ったらコスパ良好な掘り出し物だったとのレポート
                                                                                • 【TensorRT】Stable Diffusion Web UIを倍速にできるNVIDIA製の神AIツール!使い方〜実践まで | WEEL

                                                                                  Stable-Diffusion-WebUI-TensorRTは、Stable-Diffusion-WebUIでTensorRTを使用するための拡張機能で、RTXのGPUで最高のパフォーマンスを利用するためのものです。 その速度は超高速で、高速といわれていた従来の手法よりさらに2倍以上も高速です! どれだけ速いんだよって話ですよね。 今回は、Stable-Diffusion-WebUI-TensorRTの概要や使い方についてお伝えします。 是非最後までご覧ください! 本記事は2023年10月の執筆時点での情報となります。2024年2月現在、Stable-Diffusion-WebUI-TensorRTの最終更新は2023年10月17日にとなっています。最新の環境だと動作しない可能性があるのでご注意ください。 なお弊社では、生成AIツール開発についての無料相談を承っています。こちらからお気軽