並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 134件

新着順 人気順

infinibandの検索結果1 - 40 件 / 134件

  • リモートワークによる孤立から結束へと向かうチームビルディング

    カテゴリー DX (2) 一般 (58) 研究会 (6) 働き方 (4) 技術 (351) Edge AI (2) Edge Computing (12) Erlang (1) FIWARE (2) Fog Computing (9) Infiniband (31) Internet of Things (32) Key Value Store (17) Linux (3) Linux KVM (10) Machine Learning (4) RealTime Web (14) SRE (2) Webサービス (42) インフラ (7) コンテナ (3) ストレージ (92) データセンター (7) データベース (47) データ流通 (6) テレプレゼンス (2) ネットワーク (214) 仮想化 (110) 災害コミュニケーション (26) 空間情報 (30) 量子コンピューティング

      リモートワークによる孤立から結束へと向かうチームビルディング
    • 不揮発メモリに対するLinux周辺動向 (2021年版) - Qiita

      はじめに この記事は Fujitsu Advent Calendar 2021 25日目の記事です。(記事は個人の見解であり、組織を代表するものではありません。) さて、今年もこれまでと同じく不揮発メモリの記事を書きます。今回は以下の内容です。 不揮発メモリ周りの規格・新仕様(CXL, RDMA) メモリ不足時の不揮発メモリの活用 Filesystem-DAXの動向 不揮発メモリ周りの規格・新仕様 今年は規格回りでいくつか新仕様が策定されています。まずは、それらについてざっくりと解説していきましょう。 CXLの不揮発メモリ対応 これまではNVDIMM、すなわちDRAMと同じようにCPU中のメモリコントローラからDDR4で直接つながるデバイスであった不揮発メモリですが、ここへきて新たな接続方法が追加されようとしています。それがCompute Express Link(CXL)です。 コンピュ

        不揮発メモリに対するLinux周辺動向 (2021年版) - Qiita
      • 一般のご家庭に25GbEネットワークを導入する

        事の発端はこちらのツイートこの低価格NICはずっと気になっていて、ほしいものリストにもずっと突っ込んでありました。突っ込んだ当時の価格からずいぶんと安くなり、2016/07/04時点で2万円を切っていたので、以下のような煽りも受けたついでに2枚買ってみました。買って挙動を確かめてみたレポートです。Amazon.co.jp: intel X540-T2: パソコン・周辺機器... Mzyy94 Network 05 Jul, 2016 当時のNASはHDDを4つ積んでRAID5相当で組んだシンプルなストレージ構成ではあったものの、1 GbEでは通信速度が頭打ちとなってしまってストレージのスピードを発揮し切れていなかったのです。 10GbEの導入でディスクをフルスピードで稼働させ、快適なデータ転送を行えるようになりました。 もちろん、QNAPのNASにも10GbEで爆速の移行を成し遂げたもので

          一般のご家庭に25GbEネットワークを導入する
        • Linux eBPFトレーシングのツール実装に必要な知識の体系化と動機

          カテゴリー DX (2) 一般 (58) 研究会 (6) 働き方 (4) 技術 (351) Edge AI (2) Edge Computing (12) Erlang (1) FIWARE (2) Fog Computing (9) Infiniband (31) Internet of Things (32) Key Value Store (17) Linux (3) Linux KVM (10) Machine Learning (4) RealTime Web (14) SRE (2) Webサービス (42) インフラ (7) コンテナ (3) ストレージ (92) データセンター (7) データベース (47) データ流通 (6) テレプレゼンス (2) ネットワーク (214) 仮想化 (110) 災害コミュニケーション (26) 空間情報 (30) 量子コンピューティング

            Linux eBPFトレーシングのツール実装に必要な知識の体系化と動機
          • 1995年前後の画像処理 - Qiita

            NHKで再放送された(デジタルリマスター版)プロジェクトX「男たちの復活戦 デジタルカメラに賭ける」を見た。カシオの技術者たちが、アナログスチルカメラの大失敗を乗り越えて QV-10 を開発・発売するまでの話。パソコンにデータを取り込めるようにすることで魅力がより増して大売れ、みたいな話に感心しつつ、ふと、「そういえば自分もそのころは、当然のようにデータを計算機に取り込んで画像処理してた」みたいなことも思ったので、当時の画像処理がどんな感じだったのか、誰も読まないだろう昔話などをしてみる。 簡単に自分のプロフィールを書いておく。小学校時代にパソコン(日立ベーシックマスターとか)に触れ、中学時代にはポケコンの BASIC 等でプログラミング。しかしこのころはむしろアマチュア無線や電子工作が中心だった。高校時代に K&R でC言語を習得し、レイトレーシングで生成したカラー画像をディザリングで1

              1995年前後の画像処理 - Qiita
            • 数百億円超を費やしてMicrosoftがChatGPTの開発元であるOpenAIのためにAI開発用のスパコンを構築

              Microsoftは2019年以降、世界中で話題となっているチャットAI「ChatGPT」を開発したOpenAIに対して多額の投資を行っており、ChatGPTをリリースした直後の2023年1月には数十億ドル(数千億円)規模の出資を行い、長期的なパートナーシップを結んだことが発表されました。MicrosoftはOpenAIを支援するため、数億ドル(数百億円)以上を費やしてAI開発用のスーパーコンピューターを構築していたことも明らかになっています。 How Microsoft’s bet on Azure unlocked an AI revolution  - Source https://news.microsoft.com/source/features/ai/how-microsofts-bet-on-azure-unlocked-an-ai-revolution/ Microsoft

                数百億円超を費やしてMicrosoftがChatGPTの開発元であるOpenAIのためにAI開発用のスパコンを構築
              • NVLink BridgeでGPUを繋いでも1GPUにはなりません | HPCシステムズ Tech Blog

                『NVLink Bridgeで複数GPUを繋いだら、それらが1GPUとして扱えるようになるんでしょ?』という誤解をされているお客様をしばしばお見受けいたします。こちらの記事では、それが誤解であること、また、SLIやUnified Memoryといった関連する情報についても整理して解説いたします。間違った期待を抱いて失敗しないように、正しい理解を深めていきましょう。 GPUのメモリ空間は他デバイスから隔絶されています GPU上には演算するためのプロセッサと、データを一時的に置いておくためのメモリ(VRAM)が搭載されています。GPUのメモリを、CUDAで書かれたプログラムから利用するには、cudaMallocでメモリ領域を確保し、cudaMemcpyを使ってホスト(CPU側)のメモリとデータの送受信を行い、GPU上で演算kernelとする関数(以下、GPU-Kernel)を呼び出し、最後にc

                  NVLink BridgeでGPUを繋いでも1GPUにはなりません | HPCシステムズ Tech Blog
                • 2022年の不揮発メモリとLinux対応動向について - Qiita

                  この記事は、Fujitsu Advent Calendar 2022の25日目の記事です。 「え、まだこのネタで書くの?」と思う方もいらっしゃるかもしれませんが、ええ、今年もこのネタで書きます。 1. NVDIMMの終焉とCXLの台頭 1.1 Intel Optane Persistent Memory これを読む皆さんはおそらくご承知のことでしょう。NVDIMMの最有力製品であったIntel Optane Persisntent Memoryのビジネスは、残念ながら終焉に向かうことが以下のように発表されました。 In Q2 2022, we initiated the winding down of our Intel Optane memory business. 実は発表と同時にすぐに製品出荷を終了してしまったわけではありません。以下の記事から少し引用します。 既存のOptane永続

                    2022年の不揮発メモリとLinux対応動向について - Qiita
                  • コロナ禍に端を発したオフィス見直しに関する一考察

                    カテゴリー DX (2) 一般 (59) 研究会 (6) 働き方 (4) 技術 (352) Edge AI (2) Edge Computing (13) Erlang (1) FIWARE (2) Fog Computing (10) Infiniband (31) Internet of Things (32) Key Value Store (17) Linux (3) Linux KVM (10) Machine Learning (5) RealTime Web (14) SRE (3) Webサービス (42) インフラ (8) コンテナ (4) ストレージ (93) データセンター (7) データベース (47) データ流通 (6) テレプレゼンス (2) ネットワーク (215) 仮想化 (111) 災害コミュニケーション (26) 空間情報 (30) 量子コンピューティン

                      コロナ禍に端を発したオフィス見直しに関する一考察
                    • スパコンないない - Qiita

                      はじめに エンジニアないないという記事を読んで、「そうそう、専門の人と一般の人って、結構認識違ってたりするよなぁ」と思ったので、スパコンについて似たようなことを書いてみようと思います。オープンキャンパス的なイベントで来訪者にスパコンについて説明したりしている時に質問されたことが中心です。 スパコン使えばものすごいゲームできるんですか? これ、わりとよく聞かれるんですが、基本的にはできません。「ものすごいゲーム」のイメージは、例えば「ものすごいグラフィック」「ものすごく精密な物理エンジン」「ものすごく大量のキャラクター」なんかだと思うんですが、そもそも一般的なスパコンはリアルタイム処理向けに作られておらず、「バッチジョブ」という形で計算を予約して、計算資源が空いたら実行される、みたいな使い方をします。スパコンは「一ヶ月かかる計算を1日で処理する」みたいな加速は得意ですが、「0.1秒かかる処理

                        スパコンないない - Qiita
                      • NVIDIAとインテルとIBMはどうして差がついてきたのか、あるいは富士通「富岳」CPUが民間普及しなかったのは何故か

                        NVIDIAと、インテル・IBMはどうして差がついたのか、疑問に思う。 AIで言えば、IBMのWatsonがずっと先行していた。 AIはニューラルネットワークを模倣していると言われ、ニューロモーフィックというチップを、IBMは作り、その後、メンバーが移籍してインテルも作った。 現在、ニューラルネットワークとは違うものになったが、勝っているのはNVIDIAになっている。 先日、1.58bitのBitNetが話題になったが、LLMではないが昔BinaryConnectで0.68bitまで下げる案を出したのもIBMのメンバーだ。 ハッカーニュースでBitNetについてIBMだった人がコメントしている。IBMはそれなりに早かったはずだ。 https://news.ycombinator.com/item?id=39544500 普通のGPUの会社だと、ゲーム用のGPUボードだけを作っていたと思うが

                          NVIDIAとインテルとIBMはどうして差がついてきたのか、あるいは富士通「富岳」CPUが民間普及しなかったのは何故か
                        • [PATCH 000/190] Revertion of all of the umn.edu commits - Greg Kroah-Hartman

                          linux-kernel.vger.kernel.org archive mirror help / color / mirror / Atom feedFrom: Greg Kroah-Hartman <gregkh@linuxfoundation.org> To: linux-kernel@vger.kernel.org Cc: Greg Kroah-Hartman <gregkh@linuxfoundation.org>, Linus Torvalds <torvalds@linux-foundation.org>, Aditya Pakki <pakki001@umn.edu>, Kangjie Lu <kjlu@umn.edu>, Qiushi Wu <wu000273@umn.edu>, x86@kernel.org, Bjorn Helgaas <bhelgaas@googl

                          • 【InfiniBandの現在】発熱への対処が難しく2002年にIntelが開発中止、サーバー間接続の一本化は実現せず【ネット新技術】

                              【InfiniBandの現在】発熱への対処が難しく2002年にIntelが開発中止、サーバー間接続の一本化は実現せず【ネット新技術】
                            • Microsoft Ignite 2023 キーノート日本語まとめ - 吉田の備忘録

                              今年も始まりました、Microsoft Ignite 2023!本日発表された、CEOのSatya Nadella氏のキーノートを日本語でまとめました。ChatGPTが発表されてから1年が経過しました。 進化のペースは凄まじいものです。我々は新しい時代に入ろうとしています。ただの新しい技術に留まりません。 このAIの時代によって、製品を作ったり、安全性を考えたりと、実課題を解決しています。 Airbnb、Shopifyや、BTや電通などもMicrosoft Copilotを展開しています。そして、組織は独自のCopilotを作成しています。 そして、Copilotは非常に生産性を向上させています。より少ない時間で情報を集めたり、ミーティングを行ったりすることができます。 Copilot はタスクを素早くこなすことが可能になり、新しいUI(ユーザーインターフェース)として、世界のナレッジだけ

                                Microsoft Ignite 2023 キーノート日本語まとめ - 吉田の備忘録
                              • 分散深層学習における耐故障性と可塑性 - Preferred Networks Research & Development

                                ImageNetを15分で学習して以来 [1]、Chainerと沢山のGPUを使って深層学習を並列化し、一回の学習に必要な時間を大きく短縮することができるようになりました。その後、ImageNetの学習は深層学習における並列化 ・高速化のデファクト標準ベンチマークとなりました [2]。それと同時に、深層学習の並列化および大規模化は進み、複数GPUどころか複数ノードで学習することは当たり前のこととなりました。深層学習の計算が大規模化し所要時間はどんどん短くなりましたが、一般的にはノードが増えれば増えただけ部分故障の確率は高くなります。また、大規模なクラスタでは個々の分散ジョブをスケールアウトしたりスケールダウンする機能、つまり可塑性をもとにした計算資源のやりくりが運用上重要になってきます。そこでChainerを拡張し、分散深層学習に耐故障性だけでなく可塑性を導入する実験を行いましたので、ここ

                                  分散深層学習における耐故障性と可塑性 - Preferred Networks Research & Development
                                • チームの絆を深めるための総当り1on1の実施と1on1のときに気をつけていること

                                  カテゴリー DX (2) 一般 (58) 研究会 (6) 働き方 (4) 技術 (351) Edge AI (2) Edge Computing (12) Erlang (1) FIWARE (2) Fog Computing (9) Infiniband (31) Internet of Things (32) Key Value Store (17) Linux (3) Linux KVM (10) Machine Learning (4) RealTime Web (14) SRE (2) Webサービス (42) インフラ (7) コンテナ (3) ストレージ (92) データセンター (7) データベース (47) データ流通 (6) テレプレゼンス (2) ネットワーク (214) 仮想化 (110) 災害コミュニケーション (26) 空間情報 (30) 量子コンピューティング

                                    チームの絆を深めるための総当り1on1の実施と1on1のときに気をつけていること
                                  • WSLのアーキテクチャ - roy-n-roy メモ

                                    Home InfiniBand C# Docker Linux Raspberry Pi RouterOS Windows Mkdocs プライバシー・ポリシー WSLのアーキテクチャ WSLで実現できること Windows Subsystem for Linux(WSL)は少ないオーバーヘッドでGNU/LinuxのCLIプログラムを実行できる環境を提供する機能です。 Windowsでは「Portable Executable」という形式の実行ファイルのみを動作させることができます。 しかし、Linuxなどで利用されている実行ファイルは「Executable and Linkable Format(ELF)」と呼ばれる形式であるため、通常はWindows上で動作させることはできません。 Linuxのプログラム(ELFバイナリ)を実行するには LinuxのCLIプログラムを利用できる環境を用

                                    • 700ペタFLOPSのAIスーパーコンピュータをNVIDIAとフロリダ大学が共同開発すると発表

                                      現地時間2020年7月21日、NVIDIAとフロリダ大学が官民パートナーシップを締結して7000万ドル(約75億円)の投資を行い、2021年初頭までに世界最速となる700ペタFLOPSのAIスーパーコンピューターを共同開発すると発表しました。 University of Florida, NVIDIA to Build Fastest AI Supercomputer in Academia | The Official NVIDIA Blog https://blogs.nvidia.com/blog/2020/07/21/university-of-florida-nvidia-ai-supercomputer/ UF Announces $70 Million Artificial Intelligence Partnership with NVIDIA - News - Unive

                                        700ペタFLOPSのAIスーパーコンピュータをNVIDIAとフロリダ大学が共同開発すると発表
                                      • 【InfiniBandの現在】低いコストとレイテンシーでHPC向けの分散型構成に活路を見出す【ネット新技術】

                                          【InfiniBandの現在】低いコストとレイテンシーでHPC向けの分散型構成に活路を見出す【ネット新技術】
                                        • 【InfiniBandの現在】売上から見るInfiniBand市場規模の推移、規格の急速な世代交代もポイント【ネット新技術】

                                            【InfiniBandの現在】売上から見るInfiniBand市場規模の推移、規格の急速な世代交代もポイント【ネット新技術】
                                          • GitHub - hjmangalam/parsyncfp: follow-on to parsync (parallel rsync) with better startup perf

                                            NB: If you don't want to transfer at least 10s of GB across a network, this is probably not the the tool you want. Use rsync alone if a sync, 'tar and netcat' if a fresh copy, or scp if the copy needs to be encrypted. parsyncfp is the offspring of my parsync (more info here) and Ganael LaPlanche's fpart, which collects files based on size or number into chunkfiles which can be fed to rsync on a ch

                                              GitHub - hjmangalam/parsyncfp: follow-on to parsync (parallel rsync) with better startup perf
                                            • Databricks、“オープン”な汎用LLM「DBRX」リリース 商用利用可

                                              米AI企業のDatabricksは3月27日(現地時間)、“オープンな”汎用LLM「DBRX」を発表した。同社によると、DBRXは標準的なベンチマークで既存のすべてのオープンモデルより優れたパフォーマンスを発揮するという。ただし、マルチモーダルではない。 DBRXは、オープンソースプロジェクトMegaBlocksに基づいて構築されたMoE(Mixture of Experts;混合エキスパート)を採用した。このMoEは、他のMoEと比較してトレーニング速度が2倍以上、計算効率も最大2倍になるという。 サイズは1320億パラメータと米MetaのLlama 2のほぼ2倍だが、速度はLlama 2の2倍という。言語理解、プログラミング、数学、ロジックのベンチマークで、Llama 2 70B、仏Mistral AIのMixtral 8x7B、米XのGrok-1、米OpenAIのGPT-3.5を上回

                                                Databricks、“オープン”な汎用LLM「DBRX」リリース 商用利用可
                                              • 【InfiniBandの現在】RDMAでパケットを高速転送する「SDP」、これをiSCSIで実現する「iSER」【ネット新技術】

                                                  【InfiniBandの現在】RDMAでパケットを高速転送する「SDP」、これをiSCSIで実現する「iSER」【ネット新技術】
                                                • Building Meta’s GenAI Infrastructure

                                                  Marking a major investment in Meta’s AI future, we are announcing two 24k GPU clusters. We are sharing details on the hardware, network, storage, design, performance, and software that help us extract high throughput and reliability for various AI workloads. We use this cluster design for Llama 3 training. We are strongly committed to open compute and open source. We built these clusters on top of

                                                    Building Meta’s GenAI Infrastructure
                                                  • How Microsoft’s bet on Azure unlocked an AI revolution  - Source

                                                    About five years ago, artificial intelligence research organization OpenAI pitched Microsoft on a bold idea that it could build AI systems that would forever change how people interact with computers. At the time, nobody knew it would mean AI systems that create pictures of whatever people describe in plain language or a chatbot to write rap lyrics, draft emails and plan entire menus based on a ha

                                                      How Microsoft’s bet on Azure unlocked an AI revolution  - Source
                                                    • クラウドの障害診断の自動化に関する論文が国際ジャーナル「IEEE Access」に採録

                                                      カテゴリー DX (2) 一般 (58) 研究会 (6) 働き方 (4) 技術 (351) Edge AI (2) Edge Computing (12) Erlang (1) FIWARE (2) Fog Computing (9) Infiniband (31) Internet of Things (32) Key Value Store (17) Linux (3) Linux KVM (10) Machine Learning (4) RealTime Web (14) SRE (2) Webサービス (42) インフラ (7) コンテナ (3) ストレージ (92) データセンター (7) データベース (47) データ流通 (6) テレプレゼンス (2) ネットワーク (214) 仮想化 (110) 災害コミュニケーション (26) 空間情報 (30) 量子コンピューティング

                                                        クラウドの障害診断の自動化に関する論文が国際ジャーナル「IEEE Access」に採録
                                                      • 【InfiniBandの現在】汎用的なInterconnectへ進化しつつあるInfiniBandの成り立ちは?【ネット新技術】

                                                          【InfiniBandの現在】汎用的なInterconnectへ進化しつつあるInfiniBandの成り立ちは?【ネット新技術】
                                                        • Microsoft Build 2024 - インフラ関連アップデートまとめ

                                                          2024年5月、Microsoft の開発者向けイベント「Microsoft Build 2024」が開催されました。Windows の最新 AI 機能 (Copilot+PC) が開催前日に発表されるなど、Copilot を中心として Microsoft が AI に対する投資を積極的に行っていることをアピールする場になっていました。 数多くあったアップデート・アナウンスのうち、本稿ではインフラ エンジニア[1]の観点から重要だと思われるものをピックアップして、簡単に紹介していきます。 仮想マシン: 第一世代 Cobalt 100 (Preview) Azure Cobalt 100 プロセッサを使用した第一世代の Azure 仮想マシン シリーズが提供開始されました (Dpsv6 / Dpdsv6 / Dplsv6 / Dpldsv6)。 Cobalt 100 は、Microsoft

                                                            Microsoft Build 2024 - インフラ関連アップデートまとめ
                                                          • 215mm角のCerebrasの巨大マシンラーニングエンジン - Hot Chips 31

                                                            2019年8月に米国にて開催された最先端のLSIチップに関するトップレベルの学会「Hot Chips 31」での多数あった発表の中でもっとも度肝を抜かれたのはCerebrasの「Wafer Scale Deep Learning」という発表である。 発表を行ったのはCerebrasの創立者の1人でチーフハードウェアアーキテクトを務めるSean Lie氏である。 Cerebrasのウェハスケールディープラーニングを発表したSean Lie氏 次の写真がウェハスケールエンジン(WSE)で、右下のチップは比較のために置いたNVIDIAのV100 GPUである。何しろ、46,225mm2で215mm角となると巨大で、チップと呼ぶのも憚られる。V100 GPUは815平方mmであるので、CerebrasのWSEは56.7倍のシリコン面積である。また、トランジスタ数では、Cerebrasは1.2Tトラ

                                                              215mm角のCerebrasの巨大マシンラーニングエンジン - Hot Chips 31
                                                            • NVIDIAの新アーキテクチャ「Blackwell」は生成AI特化、汎用人型ロボットにも適用

                                                              NVIDIAの新アーキテクチャ「Blackwell」は生成AI特化、汎用人型ロボットにも適用:人工知能ニュース(1/2 ページ) NVIDIAは「GTC 2024」において、新たなGPUアーキテクチャ「Blackwell」を発表。AI処理性能で前世代アーキテクチャ「Hopper」の5倍となる20PFLOPSを達成。生成AIの処理性能向上にも注力しており、Hopperと比べて学習で4倍、推論実行で30倍、消費電力当たりの処理性能で25倍となっている。 NVIDIAは2024年3月18日(現地時間)、米国サンノゼで開催中のユーザーイベント「GTC(GPU Technology Conference) 2024」(開催期間:同年3月17~21日)の基調講演において、新たなGPUアーキテクチャ「Blackwell」を発表した。浮動小数点演算ベースのAI(人工知能)処理性能で、2022年3月発表の前

                                                                NVIDIAの新アーキテクチャ「Blackwell」は生成AI特化、汎用人型ロボットにも適用
                                                              • The Best GPUs for Deep Learning in 2023 — An In-depth Analysis

                                                                OverviewThis blog post is structured in the following way. First, I will explain what makes a GPU fast. I will discuss CPUs vs GPUs, Tensor Cores, memory bandwidth, and the memory hierarchy of GPUs and how these relate to deep learning performance. These explanations might help you get a more intuitive sense of what to look for in a GPU. I discuss the unique features of the new NVIDIA RTX 40 Amper

                                                                  The Best GPUs for Deep Learning in 2023 — An In-depth Analysis
                                                                • 富士通のA64FX搭載スパコン「PRIMEHPC FX1000/FX700」を読み解く - SC19

                                                                  SC19のExhibitor Forumにおいて、富士通は新スパコン「PRIMEHPC FX1000」と「PRIMEHPC FX700」を発表した。発表を行ったのは、次世代テクニカルコンピューティング開発本部システム統括部の清水部長である。 SC19のExhibitor ForumでFX1000とFX700スパコンを発表する富士通の清水氏 3種類のA64FXスパコンを有する富士通 これで富士通は、FX700とFX1000という商用のスパコンと日の丸スパコンとして開発した「富岳」というA64FXをCPUとする3種のスパコンを有することになる。これら3種のマシンを比較したのが次の図である。 富岳とFX1000はラック1本に384CPUを収容し、水冷になっている。ラックの寸法なども同じであり、塗装などを別にすれば同じマシンである。 一方、FX700は2Uの薄型のラックマウントサーバとなっている。

                                                                    富士通のA64FX搭載スパコン「PRIMEHPC FX1000/FX700」を読み解く - SC19
                                                                  • 【InfiniBandの現在】InfiniBandで高性能を実現するMPIの仕様策定と、その実装「MPICH」【ネット新技術】

                                                                      【InfiniBandの現在】InfiniBandで高性能を実現するMPIの仕様策定と、その実装「MPICH」【ネット新技術】
                                                                    • 東京証券取引所 株式売買システム開発 - 採用情報 : 富士通株式会社

                                                                      新「arrowhead」では、注文処理のスピードを旧システムの3倍に当たる300マイクロ秒まで高速化し、海外の最高水準に並んだ。さらに、信頼性確保のためのシステム構成を徹底。稼働後には大きなトラブルを一度も起こすことなく1日1億件以上もの注文を処理し、東証の取引額は増え続けている。 東京証券取引所はニューヨーク証券取引所、ロンドン証券取引所と並ぶ世界最大の市場のひとつであり、上場銘柄数は約3800銘柄。日々の売買代金は3兆円を超えている。この大規模な取引を支えている株式売買システムarrowheadは、2010年1月に稼働して以来、世界トップクラスの性能を誇っていた。しかし売買システムの高速化に伴い、株式の注文件数はさらに世界的に増加。海外の市場では多数のシステムの不具合が報告され、とりわけ2012年8月にニューヨーク証券取引所で起こったトラブルによる株価の乱高下は、世界の市場に深刻なイン

                                                                        東京証券取引所 株式売買システム開発 - 採用情報 : 富士通株式会社
                                                                      • GoogleのAI用プロセッサ「TPU v4」はNVIDIAの「A100」より高速で効率的だとGoogleの研究者が主張

                                                                        Googleは2021年、機械学習に特化したプロセッサ「Tensor Processing Unit(TPU)」の第4世代モデルである「TPU v4」を発表しました。新たにGoogleが、2023年4月に公開した公式ブログとプレプリントサーバーのArXivに投稿した論文で、「GoogleのTPU v4を組み合わせたシステムは同サイズのNVIDA『A100』を用いたシステムより高速かつ効率的」と主張しています。 [2304.01433] TPU v4: An Optically Reconfigurable Supercomputer for Machine Learning with Hardware Support for Embeddings https://arxiv.org/abs/2304.01433 TPU v4 enables performance, energy and

                                                                          GoogleのAI用プロセッサ「TPU v4」はNVIDIAの「A100」より高速で効率的だとGoogleの研究者が主張
                                                                        • Sending Udp Multicast Messages From Container To Host

                                                                          Visiteurs depuis le 26/01/2019 : 4344 Connectés : 1 Record de connectés : 16 Sending Udp Multicast Messages From Container To Host CrosswordI have a container based on a Ubuntu 16.04 image running on my Mac, and I would like to send UDP messages to UDP Multicast group at. Multicast message delivery provides the fastest means of delivering messages to a large set of receivers. Low Latency Messaging

                                                                            Sending Udp Multicast Messages From Container To Host
                                                                          • NVIDIAが次世代GPUアーキテクチャ「Hopper」を発表、AI処理速度がAmpereの6倍など各種性能が飛躍的に向上

                                                                            NVIDIAが自ら主催する開発者向けカンファレンス・GTC 2022の中で次世代GPUアーキテクチャ「Hopper」と、そのHopperを搭載する「H100 GPU」を発表しました。HopperはNVIDIAが注力している機械学習モデルのTransformerにおける処理能力を飛躍的に向上させます。 GTC 2022 Keynote with NVIDIA CEO Jensen Huang - YouTube NVIDIA Announces Hopper Architecture, the Next Generation of Accelerated Computing | NVIDIA Newsroom https://nvidianews.nvidia.com/news/nvidia-announces-hopper-architecture-the-next-generation-

                                                                              NVIDIAが次世代GPUアーキテクチャ「Hopper」を発表、AI処理速度がAmpereの6倍など各種性能が飛躍的に向上
                                                                            • Japan Captures TOP500 Crown with Arm-Powered Supercomputer | TOP500

                                                                              FRANKFURT, Germany; BERKELEY, Calif.; and KNOXVILLE, Tenn.—The 55th edition of the TOP500 saw some significant additions to the list, spearheaded by a new number one system from Japan. The latest rankings also reflect a steady growth in aggregate performance and power efficiency. The new top system, Fugaku, turned in a High Performance Linpack (HPL) result of 415.5 petaflops, besting the now secon

                                                                              • AWS Elastic Fabric Adapterの通信速度評価 - Preferred Networks Research & Development

                                                                                背景 弊社Preferred Networksにおいては、「MNシリーズ」[1][2] としてプライベート・スーパーコンピューターを整備しており、深層学習を始めとしたデータサイエンスの研究開発に活用しています。一般的には、このような計算機クラスタは「スーパーコンピューター」あるいは「HPCクラスタ」と呼ばれます。 ところで、大規模な計算資源というと、もうひとつ「クラウド」というものが思い浮かびます。スーパーコンピューターを使った数値シミュレーションなら、同じく大量のコンピューターが配備されているクラウドでも実行できそう気がします。しかし実際のところ「スーパーコンピューター」と「クラウド」は、似ているようで大きく違うものです。数値シミュレーションの多くは、そのままクラウドに移植しても期待する性能が得られないことが多かったのです。その要因の一つが「通信性能」の違いです。 大規模な数値シミュレー

                                                                                  AWS Elastic Fabric Adapterの通信速度評価 - Preferred Networks Research & Development
                                                                                • NVIDIA、データセンター向け高速ネットワーク機器の大手ベンダMellanoxの買収完了を発表

                                                                                  半導体ベンダのNVIDIAは、データセンター向けの高速ネットワークカードやスイッチなどの大手ベンダMellanoxの買収完了を発表しました。NVIDIAはこれにより、データセンター向けのソリューションを強化することになります。 We have joined forces with @mellanoxtech to deliver powerful data centers that drive innovation for the world. Learn more: https://t.co/X9ZAcsBOr8 — NVIDIA (@nvidia) April 27, 2020 Mellanoxは、データセンターで使われている高速なイーサネットやInfinibandのアダプタやスイッチのベンダとして最大手といっていいベンダです。 そのMellanoxをNVIDAが買収する背景には、デー

                                                                                    NVIDIA、データセンター向け高速ネットワーク機器の大手ベンダMellanoxの買収完了を発表