タグ

serverとdatacenterに関するmteramotoのブックマーク (20)

  • IPv6 in the Data Center: is Cisco ready? « ipSpace.net blog

  • macminicolo: Mac Mini colocation | Mac mini hosting Facility

    We continue to expace to new data centers around the world. Learn more about MacStadium data center locations. Follow us on Twitter | Customer Login | Macminicolo Blog | Contact Us | Pricing and Signup| A MacStadium company | Apple®, Mac®, Mac mini®, Mac Pro®, and macOS® are trademarks of Apple Inc.

  • PHPの価値が相対的に落ちてJavaの価値があがっていく 2009-10-19 - きしだのはてな

    2000年あたり、PHP4やJSP1.0が出たころ、PHPよりもJavaがよいと言っても、「Javaは動かせる安いサーバーがない」ということで、サーバーの確保が容易なPerlPHPが使われました。 Javaを使うには、一台まるごと借りれる割高なレンタルサーバーで、自力でTomcatなどをインストールする必要がありました。そういった状況はしばらく続き、「PHPならば安く借りれるサーバーがたくさんある」ということから、PHPがよく使われるようになりました。 PHPの普及初期では、サーバーの確保が容易なことがPHP採用の大きな理由のひとつだったと思います。 こういう状況は最近まで続いたけど、Amazon EC2のおかげで「Javaは動かせる安いサーバーがない」という問題は解決してきました。Amazon EC2を借りても自力でTomcatなどをインストールする問題がありましたが、HerokuやS

    PHPの価値が相対的に落ちてJavaの価値があがっていく 2009-10-19 - きしだのはてな
  • いい配線工事業者と仲良くしましょうマジで - mmasudaのはてな日記

    "LAN配線は意外に奥が深いものです。"を観てだらだらと思うところを書いてみたら長くなったので、ちょっと個別記事にしてみる。まとまってないけど。 マシンルーム・データセンタ内 ラック間を跨ぐケーブルの数をパッチパネルとバルクケーブルを駆使して相対的に数が少なくするように設計するのが鉄板です。ラックに機器を入れる前にラック間を跨ぐ数を(予備+増強分含め)割り出して、パッチパネル&バルクケーブル敷設工事することが肝要。 間違ってもラック間を跨ぐケーブルが数十単位になって床にケーブルをとぐろを巻く何ていう事態は発生させないように。それは敗北を意味します。 大抵混乱を生み出すのはラック間を跨ぐケーブルなので、一応サーバ収容ラックのラック内で完結するケーブル配線は別と考えていいのかな、と。メタルなLANケーブルを電力ケーブルと一定の距離をとるとか、ケーブルのせいでラックのドアが閉められないの

    いい配線工事業者と仲良くしましょうマジで - mmasudaのはてな日記
    mteramoto
    mteramoto 2008/10/22
    ラック背面ではエアフローにも気をつけよう
  • 日本の湿気った空気には、水冷が良い

    This is the legend of Kenichi Okuyama, known as okky, in diary style. This tells the story of how he became first emperer of The First Galactic Empire. 日の夏は蒸し暑い。これは日人ならば誰でも知っていると思う。 日中最高気温は35度以上になり、40度だって当たり前。 なのに湿度が60%を下回る事はない。恒温動物にとって地獄のような環境である。 さて、一方その頃(え?)。 飽和水蒸気量という単語をご存知だろうか? Wikipediaへのリンクをくっつけてあるが、ようするに 1m3の空間中に存在できる水蒸気の質量をgで現したもの、だそうだ。当然、これは100%のときの質量であって、たとえば湿度が60%の場合、存在している湿度の量はその60%

    日本の湿気った空気には、水冷が良い
    mteramoto
    mteramoto 2008/09/29
    潜熱能力と顕熱能力
  • 【Web 2.0 Expo】IBMが「横から入れる」ラック・サーバーを発表,実装密度は従来の2倍

    米IBMは米国時間2008年4月23日,実装密度を従来よりも2倍に高めたラックマウント・サーバー・システム「iDataPlex」を発表した。設置面積は従来の19インチ・ラックと同じだが,小型のサーバー体をラック側面から格納することで,実装密度を高めると共に,冷却効率を上げているという。2008年6月から米国で出荷を開始する。 今回IBMが発表したiDataPlexでは,サーバー体の奥行きは従来の19インチ・ラックの幅と同じで,幅が従来の19インチ・ラックの奥行きの2分の1である。これをラックの側面から2列で格納すると,従来のラックと比べて実装密度が2倍になる(写真1)。搭載するプロセッサはIA(x86)プロセッサである。 「従来よりも半分のサイズであるラックマウント・サーバー」自体は,既にいくつか製品化されている(これらは「ハーフ・サイズ」などと呼ばれる)。しかしそれらの多くは,ラック

    【Web 2.0 Expo】IBMが「横から入れる」ラック・サーバーを発表,実装密度は従来の2倍
    mteramoto
    mteramoto 2008/04/24
    側面から搭載する手法だと、ラックを並べて置けないんじゃ?
  • 第9回 プロセッサやラックに施す冷却技術

    情報システムに関連する消費電力が増加する大きな要因の一つは,発熱である。前回提示した米APCのデータによると,データセンターやサーバー室で消費される電力の約45%は,空調などの冷却用装置によるものである(図1)。IT機器や電源設備だけでなく,冷却用設備でも,省電力化を進める必要がある。 背景にあるのは,サーバーやストレージの発熱量が増大していることである。ブレード・サーバーのように,小さいスペースでも多くのサーバーを稼働させられるIT機器は,それだけ発熱量が多い。局所的に温度が高いスペース「熱だまり」が発生したり,サーバー室全体の温度が上昇したりする。それを冷却するために,これまでより多くの冷却装置が必要になり,消費電力増加につながっている。 ラック単位で冷却 データセンターやサーバー室の冷却が非効率である要因は,(1)サーバー・スペースによって温度のムラが大きいこと,(2)サーバーが吸引

    第9回 プロセッサやラックに施す冷却技術
  • 写真で見る最新鋭データセンター

    ブロードバンド時代のネットワーク・サービスの拠点として,データセンターは常に進化を続けている。今回,データセンター事業大手のソフトバンクIDCの「新宿データセンター」の内部を見学する機会を得た。新宿データセンターは,同社がこれまでのデータセンター事業の経験から得たノウハウを生かして,さまざまな工夫が施されている。そうした工夫を含め,最新のデータセンターの内部を紹介しよう。 案内役は,同社の山中敦氏(技術部 施設部 マネージャ兼社長室経営企画部ファシリティアーキテクト)と中山一郎氏(ソリューション事業部カスタマーサービス5部 部長)の両名だ。 なお,データセンター内部は写真撮影が禁止されており,この記事の写真は一部を除いてソフトバンクIDCが提供したものである。 古くて新しい新宿データセンター ソフトバンクIDCの新宿データセンターのビルは,1973年竣工とかなり古い。しかし,2005年

    写真で見る最新鋭データセンター
  • [サーバー運用編]1ラック60A以上使用してはいけない

    データセンターなどで準備されている19インチ・ラックは,全高1800mm~2000mmのモデルが一般的だ。ユニット・サイズで言うと35Uから45Uまでが収納可能である。1Uサーバーの高さは44.45mmなので40台まではマウントできるが,ラックのユニット・サイズのギリギリにマウントすると,メンテナンスが困難になるため,スペースの余裕を考慮して30~35台を搭載するのが一般的だろう。 しかし,消費電力を考慮しないでこの数のサーバーを積み上げていくと,後で面倒なことが起こる。システムの寿命が短くなったり,運用性,メンテナンス性の低下したりするのである。 現在,流通している2GHz前後のデュアルコア・チップを搭載した1Uサーバーの最大消費電力量は約200W~220W程度。実効値を70%として電圧100Vで稼働させるとすると1台当たり3A(200~220W/70V)の電力量が必要となる。これを1ラ

    [サーバー運用編]1ラック60A以上使用してはいけない
    mteramoto
    mteramoto 2007/12/03
    突入と二重化電源の片系停止にも注意
  • サーバラックにクーラー直付け IBMと三洋、DC向け省エネ空調を開発

    アイ・ビー・エム(日IBM)と三洋電機は10月23日、データセンターの消費電力を最大25%以上削減できるという空調サービスを発表した。サーバラックの後部ドアに熱交換機を直接取り付けて排熱を半減させる方式で、効率良く冷却でき、省電力化が可能という。消費電力の増大がデータセンター共通の課題になっており、冷却効率の良さと省電力化を売りに、1年で国内15カ所への導入を見込む。 IBMが2005年に発表した「Rear Door Heat eXchanger」(RDHX)技術と、三洋が新開発した「enegreen 冷媒式マルチサーバークーラー」を組み合わせたデータセンター用空調設備構築サービス。 IBM製19インチ42Uラックの後部ドアに冷媒式の熱交換機を取り付け、サーバ後部から直接、排熱の約50%を取り除けるという。サーバの後部ファンから出る風を利用するため、熱交換機自体はファンレスにできた。

    サーバラックにクーラー直付け IBMと三洋、DC向け省エネ空調を開発
  • 第3回 ユーザーの半数は3年以内に既存設備の電源容量不足に

    サーバーの増設などでデータセンターの消費電力量は増える。「消費電力量が設備の最大容量を上回る時期は,3年以内が約半数,5年以内では約80%に達する」ことが,ITpro Researchモニターを対象に行った「企業のデータセンター利用に関する調査」からわかった。 連載は,データセンターの抱えている問題を,省電力や熱対策といったITの環境問題に対する企業の姿勢や取り組みである「グリーンIT」に焦点を当てて,その実態を紹介している。今回は,データセンターの抱える問題点の中から,データセンターの消費電力量についてまとめた。 62%が過去3年間で消費電力が増加 グリーンITを考える上で,データセンターの消費電力量が,どのような状況にあるかを把握しておくことは重要だ。「電力コストは過去3年間でどのように変化したか」を尋ねたところ,「大幅に増えた」が9.2%,「増えた」が53.0%と,62.2%が過去

    第3回 ユーザーの半数は3年以内に既存設備の電源容量不足に
  • 第1回 熱対策と管理に投資が集中

    グーグルは今、6億~7億ドルもの巨費をかけてオレゴン州やノースカロライナ州などに巨大データセンターを新設しているといわれている。検索サービスで競合する米マイクロソフト、米ヤフーも相当な規模のデータセンターを新設中だ。 検索サービスを手掛ける企業だけではない。米シスコは全世界数十拠点を現行の4カ所に集約した上で、最終的にテキサス州に新データセンターを設立する。米ヒューレット・パッカード(HP)も、全世界のデータセンターを2008年までに米国内の3カ所(詳細は非公開)に集約する「NGDC(次世代データセンター)」構想を実現に移している。米ジュニパーネットワークスのボビー・グハサカ製品マーケティング担当シニア・マネージャは「エクソン、メリルリンチ、トヨタ自動車、政府機関など、米国では多くの組織にデータセンター集約化の動きがある」と言う。 「建築面積が100万平方フィートを超えることからメガセン

    第1回 熱対策と管理に投資が集中
  • 意外に知られていない熱対策

    まず空気の流れを制御する サーバーの熱対策としてまず思い付く手段は空調である。では,部分的に温度が際立って高い場所が生じた場合はどうするか。ここで,空調の温度を下げてサーバー・ルームをもっと冷やせばいいと考えていないだろうか。 これは正しい熱対策とは言えない。「局所的な熱なのに,部屋全体を冷やすことは電気代の無駄」(日ヒューレット・パッカードの高原明彦インフラソリューションマーケティング部プログラムマネージャ)。空調を強めるより,まずは熱を逃がす方法を考えたい。 熱対策を考える上で重要なのは,サーバー・ルーム全体の効率的な冷却である。その基になるのは,エアフロー(空気の流れ)を考慮したラックや空調設備のレイアウトだ。冷気の通り道「コールド・アイル」と暖気の通り道「ホット・アイル」を分けて作るように,ラックの向きや列をそろえる(図1)。 一般に,サーバーは前面から冷気を取り込み,背面か

    意外に知られていない熱対策
  • 19インチラックって何だろう?

    「ラック」と一口に言っても,サーバー用ラック,汎用的な19インチ・ラックなど,いくつか種類がある。いまやラックはサーバー運用に欠かせない道具であるにもかかわらず,どんな規格があるか,どんな構造になっているかについては,意外に情報が整理されていない。ここでは,最も一般的に使われる19インチ・ラックについての基礎を解説しておこう。 19インチ・ラックが一般的になってきたのは,1990年代後半。データ・センターや大手企業を中心に急速に広がった。今では普及価格帯のサーバーでも薄型化されているため,中堅・中小企業でも導入が進んでいる。 幅の実寸は19インチより広い 19インチ・ラックは,薄型のサーバーやネットワーク各種装置を効率よく複数収容できるように規格化されたもので,主に,EIA(米国電子工業会)が策定した標準仕様に準拠した製品である。読んで字のごとく,幅が19インチ(482.6mm)であること

    19インチラックって何だろう?
  • 電源条件からのデータセンター選び

    電源がなければ、サーバもネットワーク機器も動かない。従ってデータセンター選びでは、各データセンターにおける電源供給環境の違いに留意する必要がある。今回は、データセンター選択の際に考慮すべき電源条件について解説する。 今回は、データセンターで利用する電源に関連するお話をしていきたいと思います。 電源はいうまでもなくデータセンターに設置する機器を動かすために必要なものです。しかし、一口に電源といってもいくつかの種類があるのをご存知でしょうか? 電源の利用方法やデータセンターで供給される電源設備に関して話を進める前に、電源の種類についてお話しておきましょう。 電源の種類を復習する 電源には大きく分けて、「直流」と「交流」があるのはご存知だと思います。 「直流」でイメージするのは、バッテリーや乾電池、DCアダプタなどから供給される電源で、+と-の極が固定されているものです。一方、「交流」は絶え間な

    電源条件からのデータセンター選び
  • 日本HP、Itanium2搭載ブレード発表、サーバーのモジュール化を一歩前進

    ヒューレット・パッカード(HP)は3月13日、インテルのItanium2プロセサを2個搭載可能なブレード「HP Integrity BL860c」を発表した。4月1日から出荷を開始する。同社が2006年6月に発表したブレード・サーバー専用シャシーのHP BladeSystem c-Classに搭載して利用する。HP-UXLinuxWindowsの3種類のOSが動作する。日HPでは、Itanium2が動作するブレードが登場したことで、これまで利用されることの多かったフロント・システムだけでなく、データベース・サーバー向けの導入も進むとみている。 日HPの石積尚幸取締役副社長執行役員は、同社のブレード・サーバーについて、「HPがこれまで合併してきた企業の持つ製品のいいところを併せ持つもの。エンクロージャはNonstop、メモリの高速伝送はAlpha Server、ProLiantの

    日本HP、Itanium2搭載ブレード発表、サーバーのモジュール化を一歩前進
  • ページが見つかりません | 日本HP

  • “1台で小さなデータセンター”、HPの新ブレードサーバ - @IT

    2007/03/13 日ヒューレット・パッカードは3月13日、UNIXにも対応した新ブレードサーバ「HP Integrity BL860c」(以下、BL860c)を出荷すると発表した。サーバの統合だけではなく、ストレージやネットワークも含めたシステム全体の統合が可能。 BL860cは、HP BladeSystem c-Classの筐体(きょうたい)に最大8枚搭載できる。x86プロセッサ搭載のProLiantブレードサーバと同一筐体内に混在可能。仮想化、自動化を活用したIT基盤や、止めることが許されないデータベースのプラットフォームに適するとされる。同社では「小さなデータセンターとして使える」(日HP 取締役副社長執行役員 石積尚幸氏)とその機能的優位性を強調する。 同社ではBL860cをブレードサーバの「第3世代」(米ヒューレット・パッカード ビジネスクリティカルサーバ ワールドワイド

  • データセンターのサービスを上手に使う

    データセンターは機器の設置場所を提供するだけでなく、ユーザーを支援するためのさまざまなサービスを提供している。料金体系を含めてこれらのサービスを事前に活用し、上手に利用したい。 データセンターの基的なサービスは、ラックやスペースといった、機器の設置場所の貸与と、設置される機器のための環境整備です。しかし、データセンターではほかにも、そこで働く作業者のためや設置した機器の安定運用のために、さまざまなサービスを行っています。そこで、今回は、これらデータセンターで提供されているサービスをまとめて紹介します。一般的なものだけでなく、個々のデータセンターが独自に行っているサービスも含めて紹介します。 データセンターの基的なサービスは、サーバレンタルやホスティングです。今回の連載では、ホスティング、つまりサーバなどの機器を設置するためのラックなどのスペースを貸し出すサービスにフォーカスしていますか

    データセンターのサービスを上手に使う
  • Impress Watchデータセンター移転記

    ソフトバンクIDCは6日、インプレスホールディングスがグループインフラとしてソフトバンクIDCのデータセンターを採用し、11月から順次運用を開始すると発表した。インプレスグループでは、Impress Watchのサーバー群をはじめグループで使用するすべてのWebサーバーをソフトバンクIDCのデータセンターに設置することで、新規ビジネスのスピーディーな展開を図るとともに、増大するサーバー群の運用負荷を軽減することを狙いとする。 と、他人事のように書き始めたが、これはもちろんINTERNET Watchをはじめとした各WatchのサーバーがソフトバンクIDCのデータセンターに移転するという話だ。そこで今回はデータセンター移転の当事者として、データセンターの内部や移転作業の模様、移転に至った経緯などをレポートする。 ● ソフトバンクIDCにサーバー環境を移転 今回、Impress Watchのサ

  • 1