論文紹介:KVM/ARM: The Design and Implementation of the Linux ARM Hypervisor
![Armの仮想化支援機構を用いてハイパーバイザーを自作する](https://cdn-ak-scissors.b.st-hatena.com/image/square/0b92b62d9dbdb3e57b2c5a3370372c6403c9224e/height=288;version=1;width=512/https%3A%2F%2Ffiles.speakerdeck.com%2Fpresentations%2F766b6798d7b64d2ea6b5ca486a3fcf0e%2Fslide_0.jpg%3F16000798)
別の所で使おうと思っていたネタですが、そちらではどうなるかわからないのでとりあえずこっちで書いてみます。 vSphere を含めた仮想化環境のメモリーの話 仮想化環境のメモリー管理はいろいろな種類があるのですが、SE でもそれを理解していないでインフラの設計・運用管理をしている人を多く見かけるので、vSphere ネタとしてちょっと書いてみました。ご興味あればお読みください。 仮想化環境でメモリーを活用する技術は 物理サーバーでは、サーバー1台1台個々にメモリーを持って専有して使っていました。そして、物理サーバー全盛の時代ではハードウエアの開発速度も速く、ちょっと間を置くと性能や容量が倍とか一桁違っていたりとかが良くありました。そのような時代の中、物理ハードウエアの上でそれらの余裕あるリソースを使って仮想的にコンピューターをエミュレーションして使うという考え方が出てきて、今は仮想化の世界で
『VMware ESXにおけるメモリ管理』シリーズ (1) - 序:他のリソースとの違いはなに? (2) - 仮想化インフラにおけるメモリ管理って? (3) - メモリに関する仮想化支援機能(Intel EPT/VPID, AMD RVI/Tagged TLB) (4) - メモリを割り当てるのは簡単だが、回収するのは難しい (5) - 透過的ページ共有 (6) - Dynamic Memory on Hyper-V 実装編 (7) - Dynamic Memory on Hyper-V 設定編 +α …の続きです。 戻って参りました、ESX(^_^;)。では、さっそく。今回のお題はバルーニングです。 バルーニングは(5)で取り上げた透過的ページ共有とは全く異なるメモリ管理手法です。透過的ページ共有はゲストOSに対しては透過的に(つまりは仮想マシン上のゲストOS側からは意識されないかたちで
Single Root I/O Virtualizationの略であり,PCIデバイス側で仮想化をサポートする規格です。PCIバス規格を管理している「PCI-SIG」(PCI Special Interest Group)により2007年10月に策定されました。 従来,複数の仮想マシンから送られてきた1つのPCIデバイスへのI/O要求は,ハイパーバイザが調停して要求を一本化し,デバイスから返ってきた結果を仮想マシンに振り分けるソフト処理が必要でした。 しかし,SR-IOVに対応したデバイスがあれば,この処理をPCIデバイス側で行います(図1)。ハードウエアによる処理であるため,パフォーマンスの大幅な向上が期待できます。 米Intel社の「82576ギガビット・イーサーネット・コントローラ」などの電子部品がこの規格に対応しています。2009年9月に開催された開発者向けフォーラム「Intel
Docker Meetup Tokyo #26での発表資料です。 いろいろなコンテナランタイムについて、機能、セキュリティ、パフォーマンス、開発動向に着目して比較調査および性能測定を行ないました。 ぜひ以下の記事も合わせてご参照ください。 『今話題のいろいろなコンテナランタイムを比較してみた[Docker Meetup Tokyo #26発表レポート]』 https://medium.com/nttlabs/container-runtime-d3e25189f67a unikernelベースのイメージの作り方などの技術的な話題は付録にも記載しましたが、近々、別の形でもまとめようと考えています。 [留意] 本資料中の性能測定は、コンテナランタイムのCRI命令処理(Podやコンテナの作成から削除までの各ステップのCRI命令)の性能を測定したものです。 それらCRI命令への処理はあくまでもコン
最近勉強を始めたコンテナ技術に関する基礎的な知識をまとめました。 [訂正と注釈] p.27-30: 「Deployment」内の「Version: 1」 => 「Version: 2」 p.37: 「終了コードをから」 => 「終了コードから」 p.39: 「HTTPSが利用できない」=> AWS上では、SSL終端するLBがサポートされています。https://kubernetes.io/docs/concepts/services-networking/service/#ssl-support-on-aws p.40: 「ユーザがingress controllerをmaster上にセットアップする必要」 => master上にセットアップしなければならないという制約はありません。例えばGCEのingress controller(GLBC)はPodとして動作します。https://gi
48-146407 kvmなどの仮想化環境において、ゲストOSのネットワークやディスクI/Oを早くするために、virtioと呼ばれる準仮想化ドライバドライバを用いることがある。 今回は、あまり技術的に細かい部分には突っ込まず、なぜゲストOSのI/Oが遅いのか、なぜvirtioを用いると速くなるのか簡単に整理してみた。 virtio(vhost)の反映の仕方(virt-manager) virtio-net(vhost-net)の場合 virt-managerを開いてvirtioを反映させたいVMをを開く。VMのコンソールのメニューで[表示]→[詳細]を選択し、NICのデバイスモデルをvirtioにし、適用を押せばよい。この時、すでにVMが起動している場合、一度シャットダウンしてからでないと反映されない。 システムのバージョンに依存すると思われるが、virtioを適用していても実際にはvho
この記事は システム系論文紹介 Advent Calendar 2015 - Adventar 17日目の記事です。 USENIX'14 ATCにてintelのKun Tian, Yaozu Dong,David Cowperthwaiteによって発表され、XenGTやKVMGTとしてごく最近に実装された新しいたGPU仮想化方式、GVT-gについて見ていく。 A Full GPU Virtualization Solution with Mediated Pass-Through https://www.usenix.org/conference/atc14/technical-sessions/presentation/tian 昨今サーバー,クライアントサイド共にネィティブな速度のGPU仮想化が求められており、GPUに特化したインスタンスやGPUリソースをサービスとしたクラウド業者もい
「ハイパーバイザの作り方」公開ページ こちらのページはSoftware Design誌の連載記事「ハイパーバイザの作り方」の公開ページです。 「Linuxのしくみを学ぶ - プロセス管理とスケジューリング」も公開中ですので、こちらも是非ご覧ください。 公開中の記事 第1回 x86アーキテクチャにおける仮想化の歴史とIntel VT-x [HTML] [PDF] [ePub] [mobi] [Kindle] 第2回 Intel VT-xの概要とメモリ仮想化 [HTML] [PDF] [ePub] [mobi] [Kindle] 第3回 I/O仮想化「デバイスI/O編」 [HTML] [PDF] [ePub] [mobi] [Kindle] 第4回 I/O仮想化「割り込み編・その1」 [HTML] [PDF] [ePub] [mobi] [Kindle] 付属資料 最近のPCアーキテクチャにお
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く