We continue to expace to new data centers around the world. Learn more about MacStadium data center locations. Follow us on Twitter | Customer Login | Macminicolo Blog | Contact Us | Pricing and Signup| A MacStadium company | Apple®, Mac®, Mac mini®, Mac Pro®, and macOS® are trademarks of Apple Inc.
2000年あたり、PHP4やJSP1.0が出たころ、PHPよりもJavaがよいと言っても、「Javaは動かせる安いサーバーがない」ということで、サーバーの確保が容易なPerlやPHPが使われました。 Javaを使うには、一台まるごと借りれる割高なレンタルサーバーで、自力でTomcatなどをインストールする必要がありました。そういった状況はしばらく続き、「PHPならば安く借りれるサーバーがたくさんある」ということから、PHPがよく使われるようになりました。 PHPの普及初期では、サーバーの確保が容易なことがPHP採用の大きな理由のひとつだったと思います。 こういう状況は最近まで続いたけど、Amazon EC2のおかげで「Javaは動かせる安いサーバーがない」という問題は解決してきました。Amazon EC2を借りても自力でTomcatなどをインストールする問題がありましたが、HerokuやS
"LAN配線は意外に奥が深いものです。"を観てだらだらと思うところを書いてみたら長くなったので、ちょっと個別記事にしてみる。まとまってないけど。 マシンルーム・データセンタ内 ラック間を跨ぐケーブルの本数をパッチパネルとバルクケーブルを駆使して相対的に本数が少なくするように設計するのが鉄板です。ラックに機器を入れる前にラック間を跨ぐ本数を(予備+増強分含め)割り出して、パッチパネル&バルクケーブル敷設工事することが肝要。 間違ってもラック間を跨ぐケーブルが数十本単位になって床にケーブルをとぐろを巻く何ていう事態は発生させないように。それは敗北を意味します。 大抵混乱を生み出すのはラック間を跨ぐケーブルなので、一応サーバ収容ラックのラック内で完結するケーブル配線は別と考えていいのかな、と。メタルなLANケーブルを電力ケーブルと一定の距離をとるとか、ケーブルのせいでラックのドアが閉められないの
This is the legend of Kenichi Okuyama, known as okky, in diary style. This tells the story of how he became first emperer of The First Galactic Empire. 日本の夏は蒸し暑い。これは日本人ならば誰でも知っていると思う。 日中最高気温は35度以上になり、40度だって当たり前。 なのに湿度が60%を下回る事はない。恒温動物にとって地獄のような環境である。 さて、一方その頃(え?)。 飽和水蒸気量という単語をご存知だろうか? Wikipediaへのリンクをくっつけてあるが、ようするに 1m3の空間中に存在できる水蒸気の質量をgで現したもの、だそうだ。当然、これは100%のときの質量であって、たとえば湿度が60%の場合、存在している湿度の量はその60%
米IBMは米国時間2008年4月23日,実装密度を従来よりも2倍に高めたラックマウント・サーバー・システム「iDataPlex」を発表した。設置面積は従来の19インチ・ラックと同じだが,小型のサーバー本体をラック側面から格納することで,実装密度を高めると共に,冷却効率を上げているという。2008年6月から米国で出荷を開始する。 今回IBMが発表したiDataPlexでは,サーバー本体の奥行きは従来の19インチ・ラックの幅と同じで,幅が従来の19インチ・ラックの奥行きの2分の1である。これをラックの側面から2列で格納すると,従来のラックと比べて実装密度が2倍になる(写真1)。搭載するプロセッサはIA(x86)プロセッサである。 「従来よりも半分のサイズであるラックマウント・サーバー」自体は,既にいくつか製品化されている(これらは「ハーフ・サイズ」などと呼ばれる)。しかしそれらの多くは,ラック
情報システムに関連する消費電力が増加する大きな要因の一つは,発熱である。前回提示した米APCのデータによると,データセンターやサーバー室で消費される電力の約45%は,空調などの冷却用装置によるものである(図1)。IT機器や電源設備だけでなく,冷却用設備でも,省電力化を進める必要がある。 背景にあるのは,サーバーやストレージの発熱量が増大していることである。ブレード・サーバーのように,小さいスペースでも多くのサーバーを稼働させられるIT機器は,それだけ発熱量が多い。局所的に温度が高いスペース「熱だまり」が発生したり,サーバー室全体の温度が上昇したりする。それを冷却するために,これまでより多くの冷却装置が必要になり,消費電力増加につながっている。 ラック単位で冷却 データセンターやサーバー室の冷却が非効率である要因は,(1)サーバー・スペースによって温度のムラが大きいこと,(2)サーバーが吸引
ブロードバンド時代のネットワーク・サービスの拠点として,データセンターは常に進化を続けている。今回,データセンター事業大手のソフトバンクIDCの「新宿データセンター」の内部を見学する機会を得た。新宿データセンターは,同社がこれまでのデータセンター事業の経験から得たノウハウを生かして,さまざまな工夫が施されている。そうした工夫を含め,最新のデータセンターの内部を紹介しよう。 案内役は,同社の山中敦氏(技術本部 施設部 マネージャ兼社長室経営企画部ファシリティアーキテクト)と中山一郎氏(ソリューション事業本部カスタマーサービス5部 部長)の両名だ。 なお,データセンター内部は写真撮影が禁止されており,この記事の写真は一部を除いてソフトバンクIDCが提供したものである。 古くて新しい新宿データセンター ソフトバンクIDCの新宿データセンターのビルは,1973年竣工とかなり古い。しかし,2005年
データセンターなどで準備されている19インチ・ラックは,全高1800mm~2000mmのモデルが一般的だ。ユニット・サイズで言うと35Uから45Uまでが収納可能である。1Uサーバーの高さは44.45mmなので40台まではマウントできるが,ラックのユニット・サイズのギリギリにマウントすると,メンテナンスが困難になるため,スペースの余裕を考慮して30~35台を搭載するのが一般的だろう。 しかし,消費電力を考慮しないでこの数のサーバーを積み上げていくと,後で面倒なことが起こる。システムの寿命が短くなったり,運用性,メンテナンス性の低下したりするのである。 現在,流通している2GHz前後のデュアルコア・チップを搭載した1Uサーバーの最大消費電力量は約200W~220W程度。実効値を70%として電圧100Vで稼働させるとすると1台当たり3A(200~220W/70V)の電力量が必要となる。これを1ラ
日本アイ・ビー・エム(日本IBM)と三洋電機は10月23日、データセンターの消費電力を最大25%以上削減できるという空調サービスを発表した。サーバラックの後部ドアに熱交換機を直接取り付けて排熱を半減させる方式で、効率良く冷却でき、省電力化が可能という。消費電力の増大がデータセンター共通の課題になっており、冷却効率の良さと省電力化を売りに、1年で国内15カ所への導入を見込む。 IBMが2005年に発表した「Rear Door Heat eXchanger」(RDHX)技術と、三洋が新開発した「enegreen 冷媒式マルチサーバークーラー」を組み合わせたデータセンター用空調設備構築サービス。 IBM製19インチ42Uラックの後部ドアに冷媒式の熱交換機を取り付け、サーバ後部から直接、排熱の約50%を取り除けるという。サーバの後部ファンから出る風を利用するため、熱交換機自体はファンレスにできた。
サーバーの増設などでデータセンターの消費電力量は増える。「消費電力量が設備の最大容量を上回る時期は,3年以内が約半数,5年以内では約80%に達する」ことが,ITpro Researchモニターを対象に行った「企業のデータセンター利用に関する調査」からわかった。 本連載は,データセンターの抱えている問題を,省電力や熱対策といったITの環境問題に対する企業の姿勢や取り組みである「グリーンIT」に焦点を当てて,その実態を紹介している。今回は,データセンターの抱える問題点の中から,データセンターの消費電力量についてまとめた。 62%が過去3年間で消費電力が増加 グリーンITを考える上で,データセンターの消費電力量が,どのような状況にあるかを把握しておくことは重要だ。「電力コストは過去3年間でどのように変化したか」を尋ねたところ,「大幅に増えた」が9.2%,「増えた」が53.0%と,62.2%が過去
米グーグルは今、6億~7億ドルもの巨費をかけてオレゴン州やノースカロライナ州などに巨大データセンターを新設しているといわれている。検索サービスで競合する米マイクロソフト、米ヤフーも相当な規模のデータセンターを新設中だ。 検索サービスを手掛ける企業だけではない。米シスコは全世界数十拠点を現行の4カ所に集約した上で、最終的にテキサス州に新データセンターを設立する。米ヒューレット・パッカード(HP)も、全世界のデータセンターを2008年までに米国内の3カ所(詳細は非公開)に集約する「NGDC(次世代データセンター)」構想を実現に移している。米ジュニパーネットワークスのボビー・グハサカ製品マーケティング担当シニア・マネージャは「エクソン、メリルリンチ、トヨタ自動車、政府機関など、米国では多くの組織にデータセンター集約化の動きがある」と言う。 「建築面積が100万平方フィートを超えることからメガセン
まず空気の流れを制御する サーバーの熱対策としてまず思い付く手段は空調である。では,部分的に温度が際立って高い場所が生じた場合はどうするか。ここで,空調の温度を下げてサーバー・ルームをもっと冷やせばいいと考えていないだろうか。 これは正しい熱対策とは言えない。「局所的な熱なのに,部屋全体を冷やすことは電気代の無駄」(日本ヒューレット・パッカードの高原明彦インフラソリューションマーケティング本部プログラムマネージャ)。空調を強めるより,まずは熱を逃がす方法を考えたい。 熱対策を考える上で重要なのは,サーバー・ルーム全体の効率的な冷却である。その基本になるのは,エアフロー(空気の流れ)を考慮したラックや空調設備のレイアウトだ。冷気の通り道「コールド・アイル」と暖気の通り道「ホット・アイル」を分けて作るように,ラックの向きや列をそろえる(図1)。 一般に,サーバーは前面から冷気を取り込み,背面か
「ラック」と一口に言っても,サーバー用ラック,汎用的な19インチ・ラックなど,いくつか種類がある。いまやラックはサーバー運用に欠かせない道具であるにもかかわらず,どんな規格があるか,どんな構造になっているかについては,意外に情報が整理されていない。ここでは,最も一般的に使われる19インチ・ラックについての基礎を解説しておこう。 19インチ・ラックが一般的になってきたのは,1990年代後半。データ・センターや大手企業を中心に急速に広がった。今では普及価格帯のサーバーでも薄型化されているため,中堅・中小企業でも導入が進んでいる。 幅の実寸は19インチより広い 19インチ・ラックは,薄型のサーバーやネットワーク各種装置を効率よく複数収容できるように規格化されたもので,主に,EIA(米国電子工業会)が策定した標準仕様に準拠した製品である。読んで字のごとく,幅が19インチ(482.6mm)であること
電源がなければ、サーバもネットワーク機器も動かない。従ってデータセンター選びでは、各データセンターにおける電源供給環境の違いに留意する必要がある。今回は、データセンター選択の際に考慮すべき電源条件について解説する。 今回は、データセンターで利用する電源に関連するお話をしていきたいと思います。 電源はいうまでもなくデータセンターに設置する機器を動かすために必要なものです。しかし、一口に電源といってもいくつかの種類があるのをご存知でしょうか? 電源の利用方法やデータセンターで供給される電源設備に関して話を進める前に、電源の種類についてお話しておきましょう。 電源の種類を復習する 電源には大きく分けて、「直流」と「交流」があるのはご存知だと思います。 「直流」でイメージするのは、バッテリーや乾電池、DCアダプタなどから供給される電源で、+と-の極が固定されているものです。一方、「交流」は絶え間な
日本ヒューレット・パッカード(HP)は3月13日、インテルのItanium2プロセサを2個搭載可能なブレード「HP Integrity BL860c」を発表した。4月1日から出荷を開始する。同社が2006年6月に発表したブレード・サーバー専用シャシーのHP BladeSystem c-Classに搭載して利用する。HP-UX、Linux、Windowsの3種類のOSが動作する。日本HPでは、Itanium2が動作するブレードが登場したことで、これまで利用されることの多かったフロント・システムだけでなく、データベース・サーバー向けの導入も進むとみている。 日本HPの石積尚幸取締役副社長執行役員は、同社のブレード・サーバーについて、「HPがこれまで合併してきた企業の持つ製品のいいところを併せ持つもの。エンクロージャはNonstop、メモリの高速伝送はAlpha Server、ProLiantの
2007/03/13 日本ヒューレット・パッカードは3月13日、UNIXにも対応した新ブレードサーバ「HP Integrity BL860c」(以下、BL860c)を出荷すると発表した。サーバの統合だけではなく、ストレージやネットワークも含めたシステム全体の統合が可能。 BL860cは、HP BladeSystem c-Classの筐体(きょうたい)に最大8枚搭載できる。x86プロセッサ搭載のProLiantブレードサーバと同一筐体内に混在可能。仮想化、自動化を活用したIT基盤や、止めることが許されないデータベースのプラットフォームに適するとされる。同社では「小さなデータセンターとして使える」(日本HP 取締役副社長執行役員 石積尚幸氏)とその機能的優位性を強調する。 同社ではBL860cをブレードサーバの「第3世代」(米ヒューレット・パッカード ビジネスクリティカルサーバ ワールドワイド
データセンターは機器の設置場所を提供するだけでなく、ユーザーを支援するためのさまざまなサービスを提供している。料金体系を含めてこれらのサービスを事前に活用し、上手に利用したい。 データセンターの基本的なサービスは、ラックやスペースといった、機器の設置場所の貸与と、設置される機器のための環境整備です。しかし、データセンターではほかにも、そこで働く作業者のためや設置した機器の安定運用のために、さまざまなサービスを行っています。そこで、今回は、これらデータセンターで提供されているサービスをまとめて紹介します。一般的なものだけでなく、個々のデータセンターが独自に行っているサービスも含めて紹介します。 データセンターの基本的なサービスは、サーバレンタルやホスティングです。今回の連載では、ホスティング、つまりサーバなどの機器を設置するためのラックなどのスペースを貸し出すサービスにフォーカスしていますか
ソフトバンクIDCは6日、インプレスホールディングスがグループインフラとしてソフトバンクIDCのデータセンターを採用し、11月から順次運用を開始すると発表した。インプレスグループでは、Impress Watchのサーバー群をはじめグループで使用するすべてのWebサーバーをソフトバンクIDCのデータセンターに設置することで、新規ビジネスのスピーディーな展開を図るとともに、増大するサーバー群の運用負荷を軽減することを狙いとする。 と、他人事のように書き始めたが、これはもちろんINTERNET Watchをはじめとした各WatchのサーバーがソフトバンクIDCのデータセンターに移転するという話だ。そこで今回はデータセンター移転の当事者として、データセンターの内部や移転作業の模様、移転に至った経緯などをレポートする。 ● ソフトバンクIDCにサーバー環境を移転 今回、Impress Watchのサ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く