通信ネットワークの役割は“データを伝える”ことだ。だが、桁違いの計算能力を必要とする生成AI/機械学習の場ではその常識が変わる。ネットワークにも計算リソースの一部として働く性能・機能が求められる。 2022年が“ChatGPT公開”の年なら、2023年は、そのOpen AIを追いかける者たちの話題で持ち切りの年だった。北米のビッグテックはもとより、国内の動きも活発だ。 NTTやソフトバンク、富士通、理研らが次々と、生成AIの基盤となる大規模言語モデル(LLM)の開発を表明。サイバーエージェントは5月、NECは7月に自社開発したLLMの公開、提供を開始した。その後も東京大学松尾研究室(松尾豊教授)やPreferred NetworksがLLMを公開。2024年3月には、NTTが「tsuzumi」のデビューを予定している。 「計算のためのネットワーク」 第三次AIブームの行方にはまだ不透明な部
Alibaba Cloudのエンジニア兼研究者であるEnnan Zhai氏が、LLMトレーニング向けデータセンターのGPUをイーサネットで相互接続する方法に関する研究論文を発表しました。この技術は特に、NVIDIAのGPU相互接続プロトコルであるNVLinkではなくイーサネットを採用している点で斬新とされています。 Alibaba HPN: A Data Center Network for Large Language Model Training (PDFファイル)https://ennanzhai.github.io/pub/sigcomm24-hpn.pdf Alibaba Cloud ditches Nvidia's interconnect in favor of Ethernet — tech giant uses own High Performance Network t
平素は、格別のご高配を賜り厚くお礼申し上げます。 この度は、標準仕様となりますAWG24(導体径0.5mm)に加えて、AWG26(導体径0.4mm)細径仕様をラインナップしております。 最大チャネル長75mであることから、同製品シリーズを「SMART75」と名付けて販売しております。 Cat.6A AWG24ケーブル外径が太く施工が難しいため、少しでもケーブルを細くすることで施工性の向上を図りました。 是非ともご覧いただき、ご検討いただけると幸いです。
市場では、光モジュールとGPUの比率を計算するための複数のアプローチが存在し、一貫性のない結果をもたらしています。これらの違いの主な原因は、さまざまなネットワーク構造に実装される光モジュールの数の変動に由来しています。必要な光モジュールの正確な数量は、いくつかの重要な要因に主に依存しています。 ネットワークカードモデル 主に2つのネットワークカードが含まれており、ConnectX-6(200Gb/s、主にA100と使用される)とConnectX-7(400Gb/s、主にH100と使用される)です。 同時に、次世代のConnectX-8 800Gb/sが2024年にリリースされる予定です。 スイッチモデル 主に2種類のスイッチが含まれており、QM 9700スイッチ(32ポートOSFP 2x400Gb/s)があります。合計64チャンネルの400Gb/sの転送速度と、合計51.2Tb/sのスルー
はじめに NVIDIA Mellanox ConnectX-7 を lspci で見るとどんな感じになっているかを知ることができました。 Multifunction に見える Google君に聞いたら、 NVIDIA ConnectX-7 Adapter Cards User Manual が見つかった。47頁に次のような記載があった。 Single-port PCIe x16 Card # lspci | grep mellanox -ia 3:00.0 Infiniband controller: Mellanox Technologes TM2910 Family [ConnectX-7] Dual-port PCIe x16 Card # lspci | grep mellanox -ia 86:00.0 Infiniband controller: Mellanox Techno
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く