タグ

DataCenterとserverに関するftnkのブックマーク (8)

  • IIJさんのコンテナ型データセンター見学会 - 仮想化通信

    IIJさんが自社のクラウドサービスIIJ GIOに利用するために開発と実証実験を行っているコンテナ型データセンターの見学会に参加してきました。 IIJさんは、あえてコンテナ型データセンターとは呼ばずに次世代モジュール型エコ・データセンターと呼んでいます、理由は後で出てきます。 今回見学させて頂いた施設は、保安上の理由から場所は原則非公開です。(中部地区某所ってところまでは公開してOK) 現在建設中の番データセンターの場所は、寒からず・暑からずの中国地方だそうです。(ネットで検索すると自治体名まで出てきます) 施設に到着して、実際に見学する前に、レクチャーを受けました。内容を抜粋すると以下のような感じです。 なぜIIJはコンテナ型データセンターをつくるのか? 従来のデータセンターは、建築コストが高い 従来のデータセンターは、一度にまとめて広いフロアを建設しないといけない 従来のデータセンタ

    IIJさんのコンテナ型データセンター見学会 - 仮想化通信
  • グーグルの最新のデータセンターは非常識なほど進化している

    昨日はITpro主催のイベント「ユーザー企業のためのエンタープライズ・クラウドフォーラム」に参加してきました。 日経コンピュータ 中田敦記者のセッション「みえてきたクラウドのコスト」では、グーグル、アマゾン、マイクロソフトの最新データセンターの動向を紹介してくれたのですが、これが非常に興味深い内容でした。セッションの内容からトピックを2つほど紹介します。 大規模データセンターは7倍効率がよい 1つ目は、日経コンピュータ2009年7月8日号で同記者が記事としても書いていることなのですが、データセンターの規模の経済について。1000台クラスの中規模データセンターと、5万台クラスのデータセンターを比較すると、大規模データセンターのほうが7倍も効率がよいというデータが示されています。 つまり、ユーザーがある大きさのコンピュータリソースを調達しようとするとき、大規模データセンターは中規模データセンタ

    グーグルの最新のデータセンターは非常識なほど進化している
  • [データセンターの熱管理編]サーバーの間にすき間を空けてはいけない

    データセンターのラックにおいて,上下のサーバーの間にすき間を空けて設置しているのを見かけることがある。すき間を空けることで風通しをよくして,サーバーに熱がこもりにくくなるようにする意図だろう。この方法は一見もっともらしいが,実はデータセンターのラックでやってはいけない。 サーバーは前面から冷気を吸い,背面から熱気を排出する。すき間を空けることこの流れが変わってしまう。図の左部分を見てほしい。これはサーバーの間にすき間を空けた場合に,空気がどう流れるかを表したものだ。背面に排出された熱気が前面に循環してしまっている。サーバーはこの熱気を前面から吸気するため,サーバーに冷気が流れない。つまり冷却できないことになる。この循環が続くと,いずれは熱暴走を起こす危険もあり得る。 熱気の循環を防ぐのに有効なのがブランク・パネルを使うことだ。ブランク・パネルとは,ラックのすき間に取り付けるパネルのことだ。

    [データセンターの熱管理編]サーバーの間にすき間を空けてはいけない
  • グーグルデータセンターの内側--明らかにされた独自性

    サンフランシスコ発--先日、Googleの秘密が少しだけ明らかになった。 Googleがデータセンター業務を公開することは滅多にないが、米国時間5月28日、GoogleフェローであるJeff Dean氏が業務の一部を話題に取り上げた。28日に当地で開催された「Google I/O」カンファレンスの超満員の聴衆に対して講演を行ったDean氏は、Googleのインフラがいかに独特かを説明しながら、Googleの秘密を少しだけ明らかにした。 Googleはごく普通のサーバを使用している。プロセッサ、ハードドライブ、メモリも同様だ。 一方、Dean氏は、1800台のサーバで構成されるクラスタは、たいしたものではないというわけではないが、ごくありふれていると考えているようだ。しかし、Googleがそのようなハードウェアを使って、700〜1000台のサーバが使われる一般的な検索クエリに0.5秒以下で応

    グーグルデータセンターの内側--明らかにされた独自性
  • さくらインターネット移行記#5 久しぶりの移転作業

    だいぶ間が空いてしまいましたが、久しぶりのデータセンター移行記です。 アンテナ、カウンター、検索を移転 完全移行もぼちぼちゴールが見えて来た今日この頃ですが、先日もサーバーの移行作業を行いました。はてなアンテナの巡回システム周り一式、はてなカウンター、はてな検索などをまとめて移行しました。今回の移行も深夜作業。夜の 2:00 に集合して作業開始です。上の写真は僕のメンテナンス時の作業着です。 サーバールームからサーバーを運び出します。台車が大活躍です。 ぎっしりサーバーが詰まっていた旧サーバールームも、だいぶ閑散としてきました。まだ 70 台近くのサーバーが残っていますが、開発機などを除くと残り 40 台程度になりました。年内には全部移行できるのではないかと思います。 アンテナやカウンターともなるとはてなの中では古いサービスなので、使っているハードも古い。移転にあたって古いサーバーはハード

    さくらインターネット移行記#5 久しぶりの移転作業
  • [サーバー運用編]1ラック60A以上使用してはいけない

    データセンターなどで準備されている19インチ・ラックは,全高1800mm~2000mmのモデルが一般的だ。ユニット・サイズで言うと35Uから45Uまでが収納可能である。1Uサーバーの高さは44.45mmなので40台まではマウントできるが,ラックのユニット・サイズのギリギリにマウントすると,メンテナンスが困難になるため,スペースの余裕を考慮して30~35台を搭載するのが一般的だろう。 しかし,消費電力を考慮しないでこの数のサーバーを積み上げていくと,後で面倒なことが起こる。システムの寿命が短くなったり,運用性,メンテナンス性の低下したりするのである。 現在,流通している2GHz前後のデュアルコア・チップを搭載した1Uサーバーの最大消費電力量は約200W~220W程度。実効値を70%として電圧100Vで稼働させるとすると1台当たり3A(200~220W/70V)の電力量が必要となる。これを1ラ

    [サーバー運用編]1ラック60A以上使用してはいけない
  • データセンター選びのポイント

    これまで複数のデータセンターを利用してきましたが、データセンター選びには毎回とても苦労しました。そこでこれまでの経験を踏まえて、ここでは私が考えるデータセンター選びのポイントを書いてみたいと思います。 まずあなたがデータセンターに何を望むかはっきりさせることが重要です。私が重要だと思うポイントとしては次のようなものがあります。 ・データセンターの所在地 →事務所から近いほうが便利です。ただし地震等自然災害に強いのは必須です。 ・入館セキュリティーの厳しさ →強ければ強いほど安心なのですが、頻繁に現地で作業するのであればむしろ入館セキュリティーは弱いほうが使いやすいというのは事実です。 ・ラックは持込みか、貸し出しか →ラックマウントサーバの場合、ラックマウントキットとラックに相性があるので、もし備え付けのラックとラックマウントキットが合わないと棚板を使うこととなり、スペースがもったいないで

    データセンター選びのポイント
  • コンテナに格納した小さなデータセンター「Project Blackbox」に入ってみた ― @IT

    2007/05/10 物理的なコンテナを、まるまる1つデータセンターにしてしまうサン・マイクロシステムズの「Project Blackbox」の中に入ってみた。約15平方メートルの設置面積に250台のサーバを詰め込むことができるという高い集積度を持つ、世界初の「移動できるデータセンター」だ。先行事例として、すでにスタンフォード線形加速器研究所が導入を決定しているほか、今夏にも一般向け出荷を始める。 Project Blackboxは、海路や陸路といった輸送で標準的に使われているサイズのコンテナを、その外形を変更することなく中にデータセンターを構築した、一風変わったプロダクトだ。コンテナのサイズは世界的にISO規格で統一されているため、既存のコンテナ運搬、ハンドリングのインフラがそのまま使えることがメリットの1つ(ただし、日国内では独自の小さなコンテナも使われている)。担当者によれば、新規

  • 1