Linuxカーネルは、ブロックI/Oの処理効率を向上させるさせるための仕組みとして、I/Oスケジューラと呼ばれる機能を提供しています。I/OスケジューラはI/O要求の順序を入れ替えることにより、スループットを向上させたり、特定のI/O要求を優先して実行させたりします。 実際のブロックデバイスのセクタに対するアクセス(つまり読み書き)を、要求された順序ではなく、I/Oを最も効率よく行うためにその順序を並び替えるというアイデアは、初期のUNIXの実装から採用されていました。それは、セクタ番号順序に並び替えてI/Oを実行するという単純なものです。ディスク面上を移動するヘッドの動きがエレベータに似ているため、このアルゴリズムはエレベータアルゴリズムなどと呼ばれていました。 現在のLinuxカーネルでは、そのころのアルゴリズムより洗練されたスケジューリング方式を採用しており、目的に応じて4種類の
Linuxは私の使っている範囲ではファイルI/Oがパフォーマンスボトルネックになっていることが多い。で、チューニングの情報を集めてみるのだが、なかなか役立つ情報を入手できない。 決まって全般的なチューニングの進め方について述べ、次にボトルネックの調べ方について述べる。 最後にチューニングパラメータ設定手順のヒントだけを非常に簡単に挙げておわってしまう。いや、どこがボトルネックなのか最初に一発で分かればいいよ? でも全般的なチューニングの進め方でそうしたドキュメントが述べている通り、色々な可能性を繰り返しチューニングしながらつぶしていかなきゃいけないんだよね。 そのためには具体的なチューニングパラメータの設定手順がなきゃできないんだよね。それを教えろよ!それを! ということで、今回はLinuxファイルI/Oチューニングについて調べた。大きなファイルの書き込み(ex. cpコマンド)を行うと、
1. データ構造 1.1 bio ブロックI/Oはstruct bio構造体で管理される。ブロックI/O処理部は上位(Buffer,PageCache等)からどのようなI/Oを行うかをbioで受け取る。ブロックI/O処理部はbioをI/O Requestに変換してElevator(I/Oスケジューラ)に入れる。
3月31日に発表されたインテルのXeon 7500番台は、Xeon 5600番台とは異なり、メインフレームやUNIXサーバーなどで利用されているItaniumと同じような高い信頼性を実現した。今回は、今後の仮想化環境にも大きな影響を与えるXeon 7500番台を紹介する。 ■Nehalem世代のXeon 7500番台 Xeon 7500番台は、8コアを実現したCPUだ(モデル別に8/6/4コアがある)。Hyper Threadingもサポートしているので、仮想的に16スレッドを同時に実行することもできる。非常にパフォーマンスの高いCPUだ。 Xeon 7500番台は、インテル製チップセットの利用で4ソケットサーバーシステム(4ソケットシステムを1つのノードとすることで8ソケットサーバーも可能)、他社製チップセットの利用で最大256個のCPUを搭載したサーバーを構築することも可能だ。 Xeo
ソフトウェアの開発において、「抽象化」はデベロッパーたちの生産性を向上させることに成功した。しかし、ソフトウェアのプリミティブな部分から目をそむけ続けることはデベロッパーとして正しい姿なのだろうか。ここでは、真のデベロッパーとして大成するための考え方やプログラミング技術、スキルセットなどを紹介する。 すべて表示 新着記事 関連記事 関連リンク 新着記事 プログラミング言語の進化を追え: 大人のためのブラックボックス読解講座――クロージャとオブジェクトの微妙な関係(その2) 前回に引き続き、Scheme言語の処理系、Gaucheを開発している川合史朗氏が、クロージャの機能を検証し、関数型言語とオブジェクト指向言語の関係について解説していきます。今回は、クロージャとオブジェクトのより深淵を探求します。 (2007/3/30) 大人のためのブラックボックス読解講座――クロージャとオブジェクトの微
コンピュータの世界において仮想化とは、資源の物理的特性を抽象化することによって、それを利用するOSやアプリケーション、ユーザーなどから隠ぺいする技法である。それによって、サーバやOS、アプリケーション、ストレージなど1つの物理的な資源(ハードウェア・リソース)を複数の論理的な資源に見せたり、複数のストレージやサーバなどの物理的な資源を1つの論理的なリソースに見せ掛けたりすることが可能になる。現在、一般的に仮想化といった場合は、以下のような種類が挙げられる。 サーバの仮想化 クライアントの仮想化 ストレージの仮想化 アプリケーションの仮想化 ここでは、その中でも特に注目を集めているサーバの仮想化に的を絞って解説していく。サーバの仮想化を使用することによって、1台のサーバ上で複数のOSを同時に稼働させることが可能になる。サーバの仮想化というのは、実はそれほど新しい考え方ではなく、その歴史をたど
コアを4つ内蔵しているという意味では、インテルのCore 2 Extreme/Quadシリーズと同じだが、その構造は大きく異なっている。Core 2 Extreme/Quadが、「デュアルコアチップ」をCPUの基板上に「2つ搭載」するMCM(Multi Chip Module)と呼ばれる実装方法を採用することでクアッドコアを実現しているのに対して、PhenomではCPUのダイの設計段階から独立した4つのコアを実装している。AMDの言葉を借りるのであればPhenomは“真のクアッドコア”ということになる。 インテルのクアッドコアと比較した“真のクアッドコア”のメリットの例としてキャッシュの同期処理が挙げられる。各コア間でキャッシュの同期(これを“コヒレンシ”と呼ぶ)をとるときに、インテルの場合はCPUの動作クロックより低速なシステムバスを必ず経由する。そのために、システムバスがボトルネックに
VMware ESX Serverは,プロセッサに仮想化支援機能が実装される前から,ソフトウエアによってx86アーキテクチャ上で仮想化を実現してきた。これまでは,VMware ESX Serverのアーキテクチャや仮想マシンの動作原理について,詳細に説明されることはなかった。ここではVMware ESX Serverのアーキテクチャを説明する。最適な設定や,トラブル時のヒントになれば幸いである。 なお,概念的な説明も含まれており,ここで説明することがVMware ESX Serverのすべてではないことをご理解いただきたい。 コアとなる仮想マシンの機能 VMware ESX Server 3.0では,従来のVMware ESX Server 2.xと比べて仮想マシンを構成する各機能に大きな変更はない。だが,実装方式が大きく異なる。ここではまず,VMware ESX Server 2.xのア
Intelは、メニイコアタイプの高スループットプロセッサである「Larrabee(ララビー)」で、個々のプロセッサコアが個別の命令を実行するMIMD(Multiple Instruction, Multiple Data)型の構成を採用する。「LarrabeeはMIMDマシンであり、コンベンショナルなキャッシュ階層を持つ。この2点がGPUと異なる」とIntelのJustin R. Rattner(ジャスティン・R・ラトナー)氏(Senior Fellow, Corporate Technology Group兼CTO, Intel)は語る。 それに対して、現在のGPUのほとんどは、多くのシェーダプロセッサコアをバンドルして、1個の命令ユニットで制御するラージSIMD(Single Instruction, Multiple Data)型の構成を取っている。SIMD構成されるシェーダプロセッ
■後藤弘茂のWeekly海外ニュース■ Intel NehalemとAMD FUSION 両社のCPU+GPU統合の違い ●CPUに統合するGPUコアを汎用には使わないIntel Intelは、Nehalem世代のCPUにGPUコアを統合する。統合するGPUコアは、Intelの内蔵グラフィックスになると推測される。Intelが高スループットコンピューティング向けに開発している「Larrabee(ララビー)」は、少なくとも最初のフェイズでは統合しない。 Intelの内蔵グラフィックスは、ハードウェア的にはユニファイドシェーダ構成となっており、実際にはDirectX 10もサポートが可能だ。G965系の「GMA X3000」は8個のプログラマブルな汎用シェーダプロセッサコア「Execution Units (EU)」で構成されていた。 G965は90nmプロセスで128平方mmのダイ(半導体本
●バリエーションの多いNehalem Intelが来年(2008年)後半に投入する次期CPU「Nehalem(ネハーレン)」は、2コアから8コアまでのバリエーションを持つ。最初のNehalemはクアッドコア版だが、Intelは続けて2009年中にデュアルコア、オクタコア、さらにGPU統合版を投入する。これまで、Intelは、ダイ(半導体本体)レベルではCPUのバリエーションを最小に止めてきた。しかし、Nehalemでは、異なるコンフィギュレーションのダイを積極的に展開する。また、投入する市場に合わせて、CPUコア以外の部分の差別化も図る。 IntelのPatrick(Pat) P. Gelsinger(パット・P・ゲルシンガー)氏(Senior Vice President and General Manager, Digital Enterprise Group)は、Nehalemの展開
IntelのPatrick(Pat) P. Gelsinger(パット・P・ゲルシンガー)氏(Senior Vice President and General Manager, Digital Enterprise Group)は、現在サンフランシスコで開催されているIntel Developer Forum(IDF)で「Tick Tock: Powerful, Efficient and Predictable」と題した基調講演を行なった。その中で、Intelの次期CPUマイクロアーキテクチャ「Nehalem(ネハーレン)」の概要を明らかにした。また、3週間前にアップしたNehalemの「A0」シリコンを使い、DP(Dual-Processor)構成での実動デモを行なった。A0が最初のサンプルチップとなる。 Nehalemの基本的な内容は、前回と、前々回とで、すでにレポートした通り。最
会期:9月18日~20日(米国時間) 会場:San Francisco「Moscone Center West」 (最終更新 9月27日) 【 9月27日】 後藤弘茂のWeekly海外ニュース Penrynの1.5倍のCPUコアを持つ次世代CPU「Nehalem」 【 9月25日】 元麻布春男の週刊PCホットライン Penrynから見るNehalemの姿 本田雅一の週刊モバイル通信 IDFに感じるIntelの自信、課題、そして不安 笠原一輝のユビキタス情報局 Intelが1月にSanta Rosaリフレッシュ、 5月にMontevinaプラットフォームを発表へ 山田祥平のRe:config.sys 【IDF特別編】テクノロジの向こう側 ジャスティン・ラトナーCTO基調講演 ~セカンドライフの先にある仮想世界 テラスケールコンピューティングのための言語「Ct」 【 9月21日】 Skullt
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く