並び順

ブックマーク数

期間指定

  • から
  • まで

41 - 80 件 / 81件

新着順 人気順

RDMAの検索結果41 - 80 件 / 81件

  • [速報]Oracle Database@AWSは12月から利用可能に、AWS CEOが基調講演に登場。Oracle CloudWorld 2024

    [速報]Oracle Database@AWSは12月から利用可能に、AWS CEOが基調講演に登場。Oracle CloudWorld 2024 米オラクルの年次イベント「Oracle CloudWorld 2024」がラスベガスで開幕しました。 1日目の基調講演に登壇した同社創業者兼CTOのラリー・エリソン氏は昨日発表した、AWS上にOracle Cloudのインフラを持ち込み、そこでOracle Databaseを稼働させる「Oracle Database@AWS」がAWSで12月から利用可能になることを明らかにしました。 Oracle Database@AWSは昨日発表され、今年(2024年)後半にプレビュー版が提供されると説明されているため、12月から利用可能になるのはプレビュー版と見られます。 「Oracle Cloud Infrastructureのデータベース、クラスタ、ハ

      [速報]Oracle Database@AWSは12月から利用可能に、AWS CEOが基調講演に登場。Oracle CloudWorld 2024
    • JavaがDockerコンテナ内でどのようにCPU数、メモリサイズを取得しているのかを調べてみる - CLOVER🍀

      これは、なにをしたくて書いたもの? 現在のJavaは、コンテナ環境下ではホスト側ではなくコンテナにリソース制限がかけられていればそちらの値を見るように なっています。 これはどこの値を見ているのかな?というのを確認してみたくなりまして。 なお、自分にはcgroupに関する知識はほぼありません。あくまで、Javaがどこの情報を見ているか?という観点で 追っています。 JDK-8146115 Javaも以前はホスト側のCPU数やメモリサイズを参照していたのですが、JDK-8146115(およびそのバックポート)が 入ってからはコンテナに割り当てられたCPU数やメモリサイズを見るようになりました。 https://bugs.openjdk.java.net/browse/JDK-8146115 Java 10以降、Java 8については8u191以降で対応しています。 デフォルトでこの機能は有効

        JavaがDockerコンテナ内でどのようにCPU数、メモリサイズを取得しているのかを調べてみる - CLOVER🍀
      • ITインフラ担当者必見、Micron SSDとMicrosoft Azure Stack HCIの活用でパフォーマンスが劇的に向上

        ITインフラ担当者必見、Micron SSDとMicrosoft Azure Stack HCIの活用でパフォーマンスが劇的に向上 ご存知の通り、仮想化されたITインフラが一般的になり、企業の80%以上のアプリケーションが仮想サーバー上で稼働しています。サーバーの管理負荷、ストレージのサイロ化などの課題についての検討も必要となってきますが、ラックスペースの縮小、全体的な効率と柔軟性が向上し、災害復旧も対応しやすいなどのメリットがあるため、昨今、より多くの企業が仮想化を推進しています。仮想化への移行を検討する場合、そのメリットを十分に得るために、現場のインフラ担当や経営層は、初期投資や技術的な課題について事前に正しく把握し、ソリューションの確定や移行方法、タイミングを適切に判断し決定する必要があります。 Micronの ITエンジニアリングチームは、例えば仮想化の優位性を認識しているが、物理

          ITインフラ担当者必見、Micron SSDとMicrosoft Azure Stack HCIの活用でパフォーマンスが劇的に向上
        • CloudShell VPC environment から VPC内のEC2インスタンスやRDS DBインスタンスに接続してみた | DevelopersIO

          もっと簡単にVPC内のリソースにアクセスしたい こんにちは、のんピ(@non____97)です。 皆さんはもっと簡単にVPC内のリソースにアクセスしたいと思ったことはありますか? 私はあります。 VPC上のRDS DBインスタンスやRedisクラスターなどのリソースに接続したい場合、Site-to-Site VPNやClient VPN、Direct Connectがなければ踏み台が必要になります。 踏み台へのアクセス方法は以下のようなものがあります。 直接SSH SSMセッションマネージャー EC2 Instance Connect SSMセッションマネージャーとEC2 Instance Connectについては以下記事をご覧ください。 しかし、上述のいずれのパターンもEC2インスタンスやECS Fargateなどの課金が発生するリソースをプロビジョニングする必要があります。 そんな時に

            CloudShell VPC environment から VPC内のEC2インスタンスやRDS DBインスタンスに接続してみた | DevelopersIO
          • 2022年のPFNの機械学習基盤 - Preferred Networks Research & Development

            はじめに PFNエンジニアの上野です。Cluster Servicesチームという、PFNの機械学習基盤を開発・運用するチームに所属して、日々基盤の改善や新機能の開発を進めています。 本記事は、以前にヤフー株式会社のAIプラットフォームチームと共催したイベント「オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #1」のPFNパートをざっくりまとめて、2022年のPFNの機械学習基盤について紹介するものです。 イベントの第二回を 8/29 に開催して、さらに新しい取り組みについても紹介しますので、ぜひこちらから参加登録をお願いします。 PFNのオンプレML基盤の取り組み スライド全体はこちらからアクセスできます。 もくじ オンプレクラスタの概要 使いやすい環境 リソースの効率的かつフェアな利用 信頼性・運用省力化 クラスタに関わる組織 オンプレクラスタの概要 PFNエンジニア

              2022年のPFNの機械学習基盤 - Preferred Networks Research & Development
            • Oracle Code One 2019に参加してきました - ブログなんだよもん

              JDKの新機能と進捗 GraalVM Jakarata EEとEclipse MicroProfile ExadataとPersistence Memory Oracle Cloudの戦略 まとめ ブログに書くの忘れてましたが、去年に引き続き今年もOracle Code One/Oracle Open Worldに参加してきました。 すでにキーノートとかの詳細は素晴らしいレポート出てるのでそちらをみてください。 Oracle OpenWorld 2019開幕 - エリソン氏が数多くの新製品を発表 (1) ラリー・エリソンが「Gen2 Cloud : Autonomous Infrastructure」をテーマに講演 | マイナビニュース Oracle Code One 2019速報レポート:レポート|gihyo.jp … 技術評論社 あと、去年とは違いありがたいことに今年は採択されたので発

                Oracle Code One 2019に参加してきました - ブログなんだよもん
              • New Old Bugs in the Linux Kernel

                Introduction Dusting off a few new (old) vulns Have you ever been casually perusing the source code of the Linux kernel and thought to yourself "Wait a minute, that can’t be right"? That’s the position we found ourselves in when we found three bugs in a forgotten corner of the mainline Linux kernel that turned out to be about 15 years old. Unlike most things that we find gathering dust, these bugs

                  New Old Bugs in the Linux Kernel
                • 週刊AWS – 2020/11/02週 | Amazon Web Services

                  Amazon Web Services ブログ 週刊AWS – 2020/11/02週 こんにちは、AWSソリューションアーキテクトの小林です。 最近めっきり寒くなり、だんだんと冬が近づいてきているような気がしますね。運動不足な状況が続いたこともあり、最近は一念発起して運動を始めることにしました。去年も似たようなことを書いた記憶がおぼろげながらあるのですが、それはそれ。新しい気持ちで天気の良い日はウォーキングを、雨降りの日は室内用のフィットネスバイクをやるようにしています。一月半くらい継続ができているのですが、そこはかとなく足が引き締まってきたような気がするので今後も継続していきたいなと思っている今日この頃です。 それでは、先週のアップデートを振り返ってみましょう。 2020年11月2日週の主要なアップデート 11/2(月) In the Works – New AWS Region in

                    週刊AWS – 2020/11/02週 | Amazon Web Services
                  • KubernetesクラスタにおけるGPU-NIC割り当ての改善によるRDMAの高速化 - Preferred Networks Research & Development

                    本投稿はPFN2022 夏季国内インターンシップに参加された松岡航さんによる寄稿です。 はじめに PFN2022年度夏季インターンシップに参加した法政大学情報科学部ディジタルメディア学科3年の松岡航です。大学では学内のサーバ管理をしています。ネットワークやコンテナ技術に興味があり、今回Cluster ServicesチームというPFNの機械学習基盤を開発・運用するチームのインターンシップに参加しました。 背景 良い深層学習モデルを実現するには、モデルの構造や適切な学習率などを変更した多くの試行を行うことが重要です。1回の学習を高速に完了させることで、効率よくこの探索を行うことができます。高速化の方法の1つとして、複数のプロセスを使って学習することで学習を高速化する分散深層学習という手法があります。例えばデータ並列な分散深層学習では、複数のプロセスにデータを分散させて処理することで、一度に多

                      KubernetesクラスタにおけるGPU-NIC割り当ての改善によるRDMAの高速化 - Preferred Networks Research & Development
                    • Ceph performance — YourcmcWiki

                      Ceph is a Software-Defined Storage system. It’s very feature-rich: it provides object storage, VM disk storage, shared cluster filesystem and a lot of additional features. In some ways, it’s even unique. It could be an excellent solution which you could take for free, immediately solve all your problems, become a cloud provider and earn piles of money. However there is a subtle problem: PERFORMANC

                      • 「障害に強い」「速い」「大容量」を実現 サイバーエージェント自作ストレージのメリット・デメリット

                        Cloud Operator Days Tokyo は、クラウドの運用者に焦点を当てた技術者向けの新しいテックイベントです。サイバーエージェントのプライベートクラウドのストレージについて、宮元氏と知念氏がそれぞれの構成や特徴、実際の運用中に起きた問題点を話しました。後半は、2つ目のプライベートクラウドとアプライアンスストレージについて。前回の記事はこちら 障害に強く速いストレージ 知念洋樹氏(以下、知念):続きまして、今度はTKY02のストレージの話に移ります。TKY02ではCinder-Standard、Cinder-Archive、Cinder-Singleの3つ自作のストレージがあります。ほかにもTKY02に関してはアプライアンスのストレージとCephもありますので、そちらも紹介していきます。 まずCinder-Standardについて紹介します。コンセプトは「障害に強く速いストレー

                          「障害に強い」「速い」「大容量」を実現 サイバーエージェント自作ストレージのメリット・デメリット
                        • #51 “Empowering Azure Storage with RDMA”

                          NSDI '23 - https://www.usenix.org/conference/nsdi23/presentation/bai - https://www.microsoft.com/en-us/research/publication/empowering-azure-storage-w…

                            #51 “Empowering Azure Storage with RDMA”
                          • Introducing Falcon: a reliable low-latency hardware transport | Google Cloud Blog

                            Google opens Falcon, a reliable low-latency hardware transport, to the ecosystem At Google, we have a long history of solving problems at scale using Ethernet, and rethinking the transport layer to satisfy demanding workloads that require high burst bandwidth, high message rates, and low latency. Workloads such as storage have needed some of these attributes for a long time, however, with newer us

                              Introducing Falcon: a reliable low-latency hardware transport | Google Cloud Blog
                            • NVMeとConnectX-4で始めるNVMe over RDMA (RoCEv2)入門

                              Mellanoxドライバのインストール事前に、RDMAに対応した Mellanox ドライバである OFED をインストールしておく必要があります。 ドライバは公式サイトからダウンロードできます。 # tar -xzvf MLNX_OFED_LINUX-5.6-2.0.9.0-ubuntu22.04-x86_64.tgz # cd MLNX_OFED_LINUX-5.6-2.0.9.0-ubuntu22.04-x86_64 # ./mlnxofedinstall --with-nvmf # /etc/init.d/openibd restart インストール完了後、念のために initramfs を更新しておきます。 しなかった場合、この後に行うカーネルモジュールの読み込みでエラーになる場合があります。 # update-initramfs -u # reboot RoCEv2サポートの確

                                NVMeとConnectX-4で始めるNVMe over RDMA (RoCEv2)入門
                              • 3.3. nmcli を使用する IP ネットワークの設定 Red Hat Enterprise Linux 7 | Red Hat Customer Portal

                                ネットワークガイド I. 作業開始前の準備 Expand section "I. 作業開始前の準備" Collapse section "I. 作業開始前の準備" 1. ネットワークトピックの概要 Expand section "1. ネットワークトピックの概要" Collapse section "1. ネットワークトピックの概要" 1.1. IP ネットワークと非 IP ネットワークの比較 1.2. 静的 IP アドレス指定と動的 IP アドレス指定の比較 1.3. DHCP クライアントの動作の設定 Expand section "1.3. DHCP クライアントの動作の設定" Collapse section "1.3. DHCP クライアントの動作の設定" 1.3.1. DHCPv4 の永続化 1.4. ワイヤレス規制ドメインの設定 1.5. netconsoleの設定 1.6.

                                  3.3. nmcli を使用する IP ネットワークの設定 Red Hat Enterprise Linux 7 | Red Hat Customer Portal
                                • OpenAI Selects Oracle Cloud Infrastructure to Extend Microsoft Azure AI Platform

                                  Press Release OpenAI Selects Oracle Cloud Infrastructure to Extend Microsoft Azure AI Platform Oracle, Microsoft, and OpenAl are partnering to extend the Microsoft Azure Al platform to Oracle Cloud Infrastructure (OCI) to provide additional capacity for OpenAl. OpenAI is the AI research and development company behind ChatGPT, which provides generative AI services to more than 100 million users eve

                                    OpenAI Selects Oracle Cloud Infrastructure to Extend Microsoft Azure AI Platform
                                  • Introducing Apache Arrow Flight: A Framework for Fast Data Transport

                                    Introducing Apache Arrow Flight: A Framework for Fast Data Transport Published 13 Oct 2019 By Wes McKinney (wesm) Translations 日本語 Over the last 18 months, the Apache Arrow community has been busy designing and implementing Flight, a new general-purpose client-server framework to simplify high performance transport of large datasets over network interfaces. Flight initially is focused on optimized

                                      Introducing Apache Arrow Flight: A Framework for Fast Data Transport
                                    • NVIDIAのマルチコアCPU「DPU」はCPUやGPUと何がどう違う?|@DIME アットダイム

                                      NVIDIAがプロセッサのDPUの違いについてブログを公開したので紹介しよう。 CPU (セントラル プロセッシング ユニット) は既におなじみだと思う。長年にわたり、柔軟性と応答性に優れた CPU は、ほとんどのコンピューターにおける唯一のプログラマブルな要素だった。 最近では、GPU (グラフィックス プロセッシング ユニット) が中心的な役割を果たすようになった。元々はリッチなリアルタイムのグラフィックスを提供するために使用されていたが、その並列処理能力によりあらゆる種類のアクセラレーテッド コンピューティング タスクに理想的な存在となっている。 これは、人工知能 (AI)、ディープラーニング、およびビッグ データ分析アプリケーションを実現する鍵となっている。 しかし、この十年間で、コンピューティングは PC やサーバーという箱型の制約から抜け出し、CPU とGPU は、新たなハイパ

                                        NVIDIAのマルチコアCPU「DPU」はCPUやGPUと何がどう違う?|@DIME アットダイム
                                      • taskset と cgroup は何が違うのか

                                        taskset と cgroupは、あるプロセスが利用可能な CPU コアを制限できる技術。どんな違いがあるのかを調べた。なお、本記事の cgroup は cgroup v1 のこと。 taskset は sched_setaffinity システムコールを利用したコマンドラインツール。sched_setaffinity はユーザが実行したプロセスの CPU Affinity をユーザの権限で変えられる。プロセスからは CPU が存在するけど自発的に使わない状態。(≒このコアじゃないとヤダ!)cgroup は CPU/メモリなどのリソースを隔離するための仕組み。cgroup は設定権限をファイルのパーミッションで管理し、ユーザからの操作を禁止できる。プロセスからは CPU が存在しない状態。(≒このコアだけ使ってね)sched_setaffinity と cgroup はユーザへのインタフ

                                          taskset と cgroup は何が違うのか
                                        • Nvidia H100 GPUs: Supply and Demand

                                          This post is an exploration of the supply and demand of GPUs, particularly Nvidia H100s. We’re also releasing a song and music video on the same day as this post. This post went mega viral. It was on the frontpage of HN, techmeme, many email newsletters, got tweets from Andrej Karpathy and others, comments from Mustafa (who will have $1B of GPUs online soon) from Inflection and Emad from Stability

                                            Nvidia H100 GPUs: Supply and Demand
                                          • 計算基盤チームの仕事紹介 - Preferred Networks Research & Development

                                            Preferred Networks 計算基盤担当VPの土井です。 ちょっと最近ばたばたしていて、あまり何をやっているか紹介できていませんでした。その結果「PFNって何やってるの?」と聞かれてなかなかお答えできない。またPFNで計算機をやっているといってもピンとこない、というお話も増えてきました。先日のJANOGに行ったメンバーからも、PFNが何をしているのかイマイチ知られていないと聞いて、冷や汗を流しております。 なので、チーム的に露出に力を入れることにしました。今後blogを、あるいはネタによってはQiitaなども含めて、シリーズ的に書いていければと思います。まずは、土井が担当している計算基盤領域およびその周辺について概観する記事を書かせて頂こうと思います。 端的に言うと、PFNはあまりオンプレインフラのイメージがないかもしれませんが、上から下までかなりがっつりやっていますし、こんな場

                                              計算基盤チームの仕事紹介 - Preferred Networks Research & Development
                                            • KSMBD As An In-Kernel SMB3 File Server Merged For Linux 5.15 - Phoronix

                                              KSMBD As An In-Kernel SMB3 File Server Merged For Linux 5.15 Written by Michael Larabel in Linux Storage on 31 August 2021 at 01:52 PM EDT. 15 Comments One of the earliest pull requests sent in for the now-open Linux 5.15 cycle was proposing KSMBD land as the in-kernel SMB3 file server as an alternative on Linux systems to running Samba in user-space. At the time it wasn't clear if Linus Torvalds

                                                KSMBD As An In-Kernel SMB3 File Server Merged For Linux 5.15 - Phoronix
                                              • Windows Server 2022 の新機能

                                                このブラウザーはサポートされなくなりました。 Microsoft Edge にアップグレードすると、最新の機能、セキュリティ更新プログラム、およびテクニカル サポートを利用できます。 適用対象: Windows Server 2022 この記事では、Windows Server 2022 の新機能の一部について説明します。 Windows Server 2022 は Windows Server 2019 の強力な基盤の上に構築されています。これにより、セキュリティ、Azure ハイブリッド統合および管理、アプリケーション プラットフォームという 3 つの主要テーマに関する多くの技術革新が実現します。 Azure Edition Windows Server 2022 Datacenter: Azure Edition により、クラウドの利点を利用して、ダウンタイムを最小限に抑えながら V

                                                  Windows Server 2022 の新機能
                                                • 32.5.2. parted でパーティションのサイズ変更 Red Hat Enterprise Linux 8 | Red Hat Customer Portal

                                                  『System Design Guide』 多様性を受け入れるオープンソースの強化 Red Hat ドキュメントへのフィードバック (英語のみ) I. インストールの設計 Expand section "I. インストールの設計" Collapse section "I. インストールの設計" 1. サポート対象の RHEL アーキテクチャーおよびシステム要件 Expand section "1. サポート対象の RHEL アーキテクチャーおよびシステム要件" Collapse section "1. サポート対象の RHEL アーキテクチャーおよびシステム要件" 1.1. サポートされているアーキテクチャー 1.2. システム要件 2. インストールの準備 Expand section "2. インストールの準備" Collapse section "2. インストールの準備" 2.1.

                                                    32.5.2. parted でパーティションのサイズ変更 Red Hat Enterprise Linux 8 | Red Hat Customer Portal
                                                  • NEC、928個のGPUを搭載したAI研究用スパコンを構築し、AI研究者が利用開始 | IT Leaders

                                                    IT Leaders トップ > テクノロジー一覧 > サーバー > 事例ニュース > NEC、928個のGPUを搭載したAI研究用スパコンを構築し、AI研究者が利用開始 サーバー サーバー記事一覧へ [事例ニュース] NEC、928個のGPUを搭載したAI研究用スパコンを構築し、AI研究者が利用開始 理論性能は580PFLOPS超 2023年3月20日(月)日川 佳三(IT Leaders編集部) リスト NECは2023年3月20日、AI研究用のスーパーコンピュータを稼働開始したと発表した。NVIDIA A100 TensorコアGPUを928個搭載し、理論性能は580PFLOPS超である。NECの数百人のAI研究者が利用を始めている。「社会全体のデジタルツイン」の実現を目指し、全人類を見分ける生体認証によるデジタル決済、パーソナライズされた行政サービス、都市全体を制御する交通管制など

                                                      NEC、928個のGPUを搭載したAI研究用スパコンを構築し、AI研究者が利用開始 | IT Leaders
                                                    • NEC、国内企業で最大規模となるAI研究用スーパーコンピュータの構築を開始

                                                      NECは、AIの世界的な開発競争が激化する中で優位性を維持・強化するため、AI研究用スーパーコンピュータの構築を開始し、2023年3月に国内企業で最大規模(注1)の580PFLOPS(注2)超となるシステムの稼働を予定しています。既に一部のシステム(100PFLOPS)についてNECの数百名の AI研究者が利用を開始しており、今後構築する480PFLPOSのシステムを加え国内最高峰のAIに特化した研究開発環境による、より高度な先進AIの迅速な開発に役立てます。また将来的には、お客様やパートナーとの共創により先進的な社会価値を産み出すAI研究のセンター・オブ・エクセレンスの実現を目指します。 近年、AIのコアテクノロジーであるディープラーニングが急激に進化し活用領域が広がっています。またディープラーニングの開発に必要な演算量も拡大の一途を辿っており、社会全体のDXを進めるには多様な先進AIを

                                                        NEC、国内企業で最大規模となるAI研究用スーパーコンピュータの構築を開始
                                                      • Linuxの不揮発メモリ(NVDIMM)対応について(2020年版) - Qiita

                                                        この記事はFujitsu Advent Calendar 2020 24日目の記事です。(記事は個人の見解であり、組織を代表するものではありません。) はじめに 毎年恒例になったAdevent CalendarでのLinuxの不揮発メモリ対応の動向について、今年も記述しようと思います。 正直言うと、今年は不揮発メモリとは別のネタを書くことも考えました。不揮発メモリのLinuxの動向については、今年はすでにOpen Source Summit Japan 2020 (以後OSSJ)でも話してしまっていて、スライドも公開したので、その内容が今年の全てです。なので、改めてAdvent Calendarで話す必要があるのかどうかいささか迷いました。 また、5月に公開した「メインフレームの異常処理」の記事が結構評判がよかった一方で、Linuxの異常処理について知らない人が多そうだったので、それについ

                                                          Linuxの不揮発メモリ(NVDIMM)対応について(2020年版) - Qiita
                                                        • 【画像】鬼滅の刃の最新号!?が超衝撃的展開になってしまう‥(ネタバレ注意) | 漫画まとめ@うさちゃんねる

                                                          1:/)`・ω・´) (ワッチョイW cade-Atg1) 2020/02/27(木) 18:08:29.172CZ9hA4x0 2: (ワッチョイcade-oL1e) 2020/02/27(木) 18:08:53.582CZ9hA4x0 ほらきたああああああああああ!! 3: (ワッチョイW cbde-/9/h) 2020/02/27(木) 18:09:21.81QR7ybGgS0 コラぽいけどなんなん? 10: (ワッチョイW ca43-Lcmr) 2020/02/27(木) 18:11:01.57ViIDzeLZ0 絵が違うな 11: (ワッチョイW 8ac0-0ddN) 2020/02/27(木) 18:11:03.12jyiKUMCy0 全然絵柄ちゃうやん 14: (ワッチョイW b3de-Vm4s) 2020/02/27(木) 18:11:43.698ExQsWSI0 これは嘘

                                                            【画像】鬼滅の刃の最新号!?が超衝撃的展開になってしまう‥(ネタバレ注意) | 漫画まとめ@うさちゃんねる
                                                          • Linux_5.11 - Linux Kernel Newbies

                                                            Linux 5.11 was released on Sun, 14 Feb 2021 Summary: This release adds supports for a new mechanism that lets software like wine handle windows syscalls in a much faster and clean manner; support for unprivileged overlayfs mounts; support for Intel SGX enclaves; support for upcoming AMD and Intel graphics hardware; faster performance and data recovery options in Btrfs; support for re-exporting via

                                                            • AzureのGPU搭載VMを安い順に並べる(2023年9月版)|さいぴ

                                                              あまりまとまった情報が見つからなかったので、自分用にまとめたメモです。 Microsoft Learnの情報から、GPUが使えるVMについて雑にまとめました。 Azureで使用できるGPU搭載VMについてAzureではGPUが搭載されたVMの名称はNから始まりますが、NDIVIA社のグラフィックボードが搭載されているとは限りません。 なお、初期設定ではクォータが1つも割り当てられていないので、使用する前に必ずクォータ増加の要求を送信する必要があります。 Azure Machine Learningのコンピューティングでも同じVMが選択肢として表示されますが、クォータは別カウントなので、Azure MLで割り当てられていてもAzure VMで使用する場合は改めてリクエストを送信する必要があります。 以下は、時間あたりのコストが安い順に並べています(料金は9月21日時点のもの)。 NC4as_

                                                                AzureのGPU搭載VMを安い順に並べる(2023年9月版)|さいぴ
                                                              • 1TBをネットワーク経由でコピーするのに5秒くらいで終わらせることは出来るのか - 地方エンジニアの学習日記

                                                                前説 この記事は「GMOペパボエンジニア Advent Calendar 2022」の23日目の記事です! adventar.org 目次 前説 目次 本編 要件整理 結論 なにはともあれボトルネック特定/改善をしてみる 家庭用サーバの場合 Disk性能を上げてみる ネットワーク性能を上げてみる RAID 0で頑張る 分散並列ファイルシステムをいれる 分散並列ファイルシステムとは Lastreでスループットを上げて頑張る これは現実的なのか クライアントを増やせば良い? 「1TBのディスクコピーが5秒位で終わったっす」を満たすのに必要なもの (おまけ)macOSのファイルシステム:APFSだとコピーが一瞬で終わる (おまけ)InfiniBand および RDMA (おまけ)永続化メモリ (コラム)1TBくらいメモリを積んでみると (コラム)TCPは理論的に限界性能が決まっている (コラム)

                                                                  1TBをネットワーク経由でコピーするのに5秒くらいで終わらせることは出来るのか - 地方エンジニアの学習日記
                                                                • NTT and Red Hat Fuel AI Analysis at the Edge with IOWN Technologies

                                                                  As part of the Innovative Optical and Wireless Network (IOWN) initiative, NTT Corporation (NTT) and Red Hat, Inc., in collaboration with NVIDIA and Fujitsu, have jointly developed a solution to enhance and extend the potential for real-time artificial intelligence (AI) data analysis at the edge. Using technologies developed by the IOWN Global Forum and built on the foundation of Red Hat OpenShift,

                                                                    NTT and Red Hat Fuel AI Analysis at the Edge with IOWN Technologies
                                                                  • Dataproc Hub により機械学習でノートブックの使用がより簡単に | Google Cloud 公式ブログ

                                                                    ※この投稿は米国時間 2020 年 12 月 12 日に、Google Cloud blog に投稿されたものの抄訳です。 Dataproc は、Apache Spark クラスタ、Presto クラスタ、Apache Hadoop クラスタなどのオープンソースを簡単かつコスト効率よく実行できるようにする、高速で使いやすいフルマネージド クラウド サービスです。本日、Dataproc Hub を一般提供し、機械学習の初期化アクションをリリースしました。Spark による水平スケーリングが可能なコンピューティングにより、データ サイエンティストが、IT で制御されたオープンソース ノートブック ベースの機械学習を簡単に使用できるようになります。 Dataproc で機械学習を運用する企業のお客様は、IT とデータ サイエンティストのロールを分離する必要があります。また、IT 管理者は Dat

                                                                      Dataproc Hub により機械学習でノートブックの使用がより簡単に | Google Cloud 公式ブログ
                                                                    • 参加企業に温度差、NTTの大胆すぎるIOWN構想

                                                                      「われわれは、100%賛同してNTTのIOWN(Innovative Optical and Wireless Network)構想に参加しているわけではない」 NTTが提案する次世代ネットワーク構想「IOWN」。そのあまりに大胆な内容から、IOWNの仕様を検討する国際団体「IOWN Global Forum」参加企業の中からも異論が出ている。冒頭の発言は、IOWN Global Forumに参加するとあるIT企業幹部が取材中に漏らした言葉だ。 IOWN構想は、通信とコンピューティングの分野にまたがるNTTの巨大構想である。目標時期は6G到来の2030年ごろ。フォーラムの拠点を米国に置き、設立メンバーのNTTや米Intel(インテル)、ソニーに加えて、2021年1月までにスウェーデン・Ericsson(エリクソン)や米NVIDIA(エヌビディア)など世界の通信主要各社も加盟した。NTTの将

                                                                        参加企業に温度差、NTTの大胆すぎるIOWN構想
                                                                      • 大規模言語モデルを Amazon SageMaker 上で学習する際のベストプラクティス | Amazon Web Services

                                                                        Amazon Web Services ブログ 大規模言語モデルを Amazon SageMaker 上で学習する際のベストプラクティス 本稿は 2023 年 3 月 6 日に AWS Machine Learning Blog で公開された “Training large language models on Amazon SageMaker: Best practices” を翻訳したものです。 言語モデルとは自然言語を用いて、連続するトークンの後に続くトークンを推測するような統計的手法です。大規模言語モデル (LLMs) は数億個 (BERT) から1兆個 (MiCS) 以上のパラメータを持つニューラルネットワークベースの言語モデルであり、その規模の大きさからシングル GPU での学習は現実的ではありません。LLM はその生成能力からテキスト合成、要約、機械翻訳などのタスクに広く用い

                                                                          大規模言語モデルを Amazon SageMaker 上で学習する際のベストプラクティス | Amazon Web Services
                                                                        • RoCE v2 メモ

                                                                          RDMAをEthernet上で実現する仕組みであるRoCE v2についてマイクロソフト社内での運用 1 について調べてみた。 イントロ# RDMAというとInfinibandというイメージだったが、最近はiWARP、RoCEなども候補になる。 RoCEを略さずにいうと、Remote Direct Memory Access over Converged Ethernetとなる。 Remote Direct Memory Access とは、CPUを経由せずにリモートノードの主記憶を読み書きできる仕組みである。Converged Ethernet とはロスレスなEthernetであると理解した。 RoCEは2種類のバージョン v1 と v2 がある。v1はL2ヘッダの後ろにRDMAのペイロードが置かれる構造をしている。原理的にL2サブネット間でのRDMAを想定している。一方、v2はL4ヘッダ

                                                                            RoCE v2 メモ
                                                                          • Mellanoxのインタコネクトテクノロジを読み解く - SC19

                                                                            HPC(High Performance Computing)の分野では計算ノード間の通信を担うインタコネクトの重要性が増している。HPCの高性能化から、接続する計算ノードの数が増えてきており、それに伴い通信遅延の低減が重要になってきている。 SC19においてInfiniBandを使うIn Networkコンピューティングについて発表するMellanoxのGilad Shainer氏 スパコンインタコネクトの定番、MellanoxのInfiniBand MellanoxのInfiniBandはスパコンのインタコネクトの定番となっており、Top500 1位のOak Ridge国立研究所のSummit、2位のLawrence Livermore国立研究所のSierra、3位の中国の無錫スパコンセンターの神威・太湖之光、5位のTexas Advanced Computing CenterのFro

                                                                              Mellanoxのインタコネクトテクノロジを読み解く - SC19
                                                                            • 郊外型データセンタ活用・省電力リアルタイムAI分析技術を実証~IOWN技術の活用によりリモート拠点上でのAI分析の遅延と消費電力を大幅に削減~ | ニュースリリース | NTT

                                                                              日本電信電話株式会社(本社:東京都千代田区、代表取締役社長:島田 明、以下「NTT」)は、IOWN構想の一環として、Red Hat、NVIDIA、および富士通の協力のもと、IOWN技術を用いて郊外型データセンタを活用したリアルタイムArtificial Intelligence(AI)分析を省電力に実現する技術を開発しました。本AI分析基盤では、IOWNオールフォトニクス・ネットワーク(All-Photonics Network、以下、APN)、およびIOWNデータセントリック基盤(Data Centric Infrastructure、以下、DCI)のデータ処理高速化手法を活用しています。本実証実験を通じ、郊外型データセンタによるAI分析において、従来の方式と比べて、遅延時間(センサ設置拠点でデータを受信してから郊外型データセンタでAI分析を完了するまでの時間)を、最大で60%削減できる

                                                                                郊外型データセンタ活用・省電力リアルタイムAI分析技術を実証~IOWN技術の活用によりリモート拠点上でのAI分析の遅延と消費電力を大幅に削減~ | ニュースリリース | NTT
                                                                              • クラウド基盤とそこに乗るデータベースはどう進化したか? オラクルのデータベースとクラウドの最新動向から考察する[PR]

                                                                                クラウド基盤とそこに乗るデータベースはどう進化したか? オラクルのデータベースとクラウドの最新動向から考察する[PR] クラウドの登場と進化は、そのうえで稼働するデータベースにも影響を与えました。 クラウドでは、システムを適切に分散させ相互に連係させるアーキテクチャがスケーラビリティや高可用性を実現し、効率性を高めて従量課金によるコストを下げることにつながります。 一方でガバナンスや運用管理は、クラウドが提供するマネージドサービスや自動化ツール、自律型サービスなどを活用することが工数や人為的ミスを減らし、セキュアで統制のとれたシステムの実現につながります。 そうしたクラウド時代のデータベースとしてまず最初に登場したのがオラクルのAutonomous Databaseです。 Autonomous Databaseとしてまず最初に提供されたのがデータウェアハウスにのための自律型データベースサー

                                                                                  クラウド基盤とそこに乗るデータベースはどう進化したか? オラクルのデータベースとクラウドの最新動向から考察する[PR]
                                                                                • M6gインスタンス yumで標準的にインストール可能なパッケージを調べてみた | DevelopersIO

                                                                                  こんにちは。 ご機嫌いかがでしょうか。 "No human labor is no human error" が大好きな吉井 亮です。 アメリカ時間の2020年5月15日に新しい EC2 M6g インスタンスが GA されました。 AWS (とその関連会社) が設計したということでクラウド最適化された CPU であると勝手に期待しています。 コストパフォマンスに優れているということで汎用的なワークロードでは積極的に使用していきたいと思います。 上記が公式アナウンスですが、一部気になる箇所がありました。 現在使用しているのと同じメカニズム (yum、apt-get、pip、npm など) を介してインストール可能な一般的に使用されるソフトウェアパッケージの Arm バージョンが見つかります。一部のアプリケーションは再コンパイルが必要な場合がありますが、インタプリタ型言語 (Java、Node

                                                                                    M6gインスタンス yumで標準的にインストール可能なパッケージを調べてみた | DevelopersIO