タグ

DataCenterに関するftnkのブックマーク (26)

  • 空制御効率化のためのデータ収集手法 | IIJの技術 | インターネットイニシアティブ(IIJ)

    データの収集と蓄積 データの収集気象センサーデータ 複合気象センサーはデータをシリアル(RS422)で出力するため、気象センサー用の専用プロトコルを解釈しデータを記録するソフトウェアが動作する収容サーバに接続されています。それらのデータは収容サーバで動作するFluentdのtailプラグインを用いて収集され、別サーバで動作するFluentdデーモンへ送信します。 温湿度センサーデータ 温湿度センサーは数が多いため、コンテナ内には複数台の温湿度センサー収容サーバが存在し、それぞれに複数個の温湿度 センサーが接続されています。データの収集はこれらのサーバ群に対しSNMP経由のポーリングで行い、気象センサーデータと同様に、別サーバで動作するFluentdデーモンへ送信します。 空調制御装置データ、電力計データ 空調制御装置データは、空調制御システム経由で5秒ごとに収集されてファイルに記録されてい

    空制御効率化のためのデータ収集手法 | IIJの技術 | インターネットイニシアティブ(IIJ)
  • 米Red Hat、Facebookが創設した高効率データセンターインフラ開発プロジェクト「Open Compute Project」に参加 | OSDN Magazine

    米Red Hatは10月27日(米国時間)、米Facebookが立ち上げたオープンなデータセンターインフラ仕様策定プロジェクト「Open Compute Project(OCP)」に参加することを発表した。OCP仕様に基づくサーバーをRed Hat Enterprise Linux対応環境として認定するという。 OCPはFacebookが4月に立ち上げたプロジェクト。低コストで高効率なコンピューティングインフラを作ることを目的とするもので、使用するマザーボードや電源、冷却システム、ラックなどの情報を共有しながらオープンソース方式で各種仕様を開発する。 Red Hatは今回、OCPの仕様をベースとしたサーバー2種類で「Red Hat Enterprise Linux(RHEL)」の動作認定を行う。その後、仮想化技術「Red Hat Enterprise Virtualization」について

    米Red Hat、Facebookが創設した高効率データセンターインフラ開発プロジェクト「Open Compute Project」に参加 | OSDN Magazine
  • NTTコム、国際基準Tier IIIに拡張可能なデータセンターをマレーシアで建設 | 経営 | マイコミジャーナル

    NTTコミュニケーションズは、2011年7月にマレーシアのサイバージャヤにて、データセンター国際基準「Tier III」に拡張可能な「サイバージャヤ3データセンター」の建設を開始すると発表した。サイバージャヤ3データセンターは、同社の100%子会社であるNTT MSC Sdn Bhdを通じて建設され、2012年度第一四半期(2012年4‐6月)を目途にサービスの提供開始を予定している。 マレーシアは地震や津波などの自然災害の影響が少なく、また電力料金が安価であることから、災害時リカバリーやオフショアの拠点として注目されており、同社はこれまでもマレーシアの首都クアラルンプールの郊外のサイバージャヤで子会社を通じて2002年よりデータセンターサービスを提供している。今回は既に提供している「サイバージャヤ1データセンター」と「サイバージャヤ2データセンター」に続く建設となる。 同社によると今回建

  • 情報インフラ、停止危機 データセンター「25%節電無理」+(1/3ページ) - MSN産経ニュース

    夏場に予想される電力不足が、企業活動に欠かせない情報インフラを預かるデータセンター事業者を苦境に立たせている。政府が掲げる節電目標を達成しようとすれば、稼働を一部ストップせざるを得なくなる事態もあり得るからだ。金融や小売りなどあらゆる分野のサービスを下支えしているセンターの稼働が止まれば、日経済全体に深刻な打撃を与えかねない。(フジサンケイビジネスアイ)「対象外にしてくれ」 「(電力使用抑制の)対象外にしてくれと声を大にして言いたい」 データセンター事業者など約100社が加盟する日データセンター協会(JDCC)の田中邦裕理事(さくらインターネット社長)はこう強調する。 政府が検討中の電力不足対策は、東京電力の供給能力増によって緩和される方向にはあるものの、すべてのデータセンター事業者が大口需要家に相当し、ピーク時に25%近い電力使用抑制を求めるとみられる。これに対し、業界内では「到底無

  • 米Facebook、データセンター効率化のためのオープンハードウェアプロジェクト立ち上げ | OSDN Magazine

    米Facebookは4月8日、経済効率のよいデータセンターに関する情報を共有するオープンハードウェアプロジェクト「Open Compute Project」を立ち上げた。第一弾として自社データセンターの技術設計や仕様を公開、今後業界全体での取り組みに広げていきたいとしている。 登録ユーザーが5億人に達したFacebookでは、ユーザー数の急増とデータセンターのスケーラビリティが大きな課題となっている。同社は2年前、エネルギー効率の良いコンピュータインフラを低コストで構築することを目標に、ソフトウェア、サーバー、データセンターを土台から設計・構築する作業に着手、オレゴン州プラインビルのデータセンターでこれらを実現した。 同データセンターでは、電力ロスを最小化するために480ボルトの電圧を統一して利用する。中央の空調システムの代わりに外気を利用し、冬季はデータセンターからの暖気をオフィスの暖房

    米Facebook、データセンター効率化のためのオープンハードウェアプロジェクト立ち上げ | OSDN Magazine
  • 日本国内でコンテナ型データセンターが解禁される | スラド

    建築基準法の制限により日での設置が難しかったコンテナ型データセンタが、日国内でも運用が可能となった (国土交通省住宅局の通達 (PDF) より) 。 積み重ねる場合は従来通り建築物として扱われるなど制約はあるものの、稼働時が無人であること、機器の障害発生時以外に内部に人が立ち入らない場合においては建築物ではなく「貯蔵庫その他これらに類する施設」として扱われる。国内のデータセンタサービスの選択肢が増えることは喜ばしい。 これからは大規模災害時などに対するより迅速なインフラ回復の基盤として活躍してくれることを期待したい。

  • 停電時のデータセンターの対応

    カテゴリー DX (2) 一般 (59) 研究会 (6) 働き方 (4) 技術 (352) Edge AI (2) Edge Computing (13) Erlang (1) FIWARE (2) Fog Computing (10) Infiniband (31) Internet of Things (32) Key Value Store (17) Linux (3) Linux KVM (10) Machine Learning (5) RealTime Web (14) SRE (3) Webサービス (42) インフラ (8) コンテナ (4) ストレージ (93) データセンター (7) データベース (47) データ流通 (6) テレプレゼンス (2) ネットワーク (215) 仮想化 (111) 災害コミュニケーション (26) 空間情報 (30) 量子コンピューティン

    停電時のデータセンターの対応
  • 「データセンター萌え」な写真を集めました

    データセンターには、近未来的でスマートなイメージがあります。最近は「工場萌え」が流行しているようですが、ITエンジニアなら「データセンター萌え」な感情を理解される方もきっと多いでしょう。 Flickrで公開されている写真の中から、データセンター萌えを感じさせる写真を選んでみました。クリエティブコモンズライセンスの写真ばかり選んだので、プレゼンテーションに引用するなど実用面でも役に立つはずです(ご利用前には、それぞれのライセンスを確認してください)。最後の1枚までお見逃しなく! 美しいデータセンターの写真 データセンターといえば、一直線に並んだラック群。近未来的な風景を作り出しています。 古風な外観というギャップもいい。パロアルトにあるFacebookのデータセンター。 そしてオランダにあるグーグルのデータセンターは、工場萌えにも通じる1枚。 データセンター内部も美しい マイクロソフトのBi

    「データセンター萌え」な写真を集めました
  • IIJ 次世代モジュール型エコ・データセンター 実証実験サイトでは300台のサーバが全てOpenBSDで動いている(キリッ - syuu1228's blog

    何故かIIJの次世代データセンタの実験施設に招待されたので見学してきた。 Geekなページのあきみちさんや東工大の首藤先生などその方面で有名な方々が集っている中、どうして私が呼ばれたんだろうと思ったがどう考えてもOpenBSD枠ですね当にありがとうございました。 ◯お話を聞いた ・従来型のデータセンターの課題 建物の建築費用が高く、一度にまとめて広いフロアを建設しなければならず、建設にも一年単位の時間がかかるので需要に合わせた供給を行なうのが難しい。 この為、需要を見越して先行投資する事になるが、そうすると運用開始してすぐに利用率を100%にする事は難しい。埋まるまで商売苦しい><; IT機器にかかる電力と同じかそれ以上の電力を冷却に費やしている。 また、IT機器の小型化・発熱量の増大に冷却システムが追いついておらず、42Uにぎっちりサーバを詰め込むような運用が難しい。 ラックスペースを

    IIJ 次世代モジュール型エコ・データセンター 実証実験サイトでは300台のサーバが全てOpenBSDで動いている(キリッ - syuu1228's blog
  • IIJが外気冷却式データセンター構築に着手、島根県松江市に 

  • IIJさんのコンテナ型データセンター見学会 - 仮想化通信

    IIJさんが自社のクラウドサービスIIJ GIOに利用するために開発と実証実験を行っているコンテナ型データセンターの見学会に参加してきました。 IIJさんは、あえてコンテナ型データセンターとは呼ばずに次世代モジュール型エコ・データセンターと呼んでいます、理由は後で出てきます。 今回見学させて頂いた施設は、保安上の理由から場所は原則非公開です。(中部地区某所ってところまでは公開してOK) 現在建設中の番データセンターの場所は、寒からず・暑からずの中国地方だそうです。(ネットで検索すると自治体名まで出てきます) 施設に到着して、実際に見学する前に、レクチャーを受けました。内容を抜粋すると以下のような感じです。 なぜIIJはコンテナ型データセンターをつくるのか? 従来のデータセンターは、建築コストが高い 従来のデータセンターは、一度にまとめて広いフロアを建設しないといけない 従来のデータセンタ

    IIJさんのコンテナ型データセンター見学会 - 仮想化通信
  • IIJ、サーバー冷却に外気を使うコンテナ型データセンターの実証実験、2010年2月から

    インターネットイニシアティブは2009年11月26日、東芝など4社と共同してコンテナ型データセンターの実証実験を2010年2月から開始すると発表した。サーバーの冷却に外気を使用するため、電力消費効率が良いという。実証実験は日の中部地方で行う。コンテナ1台に数百台のサーバーが収納可能で、2011年3月には4000台のサーバーを稼働する計画だ。 コンテナ型データセンターの各構成要素に関しては、日軽金属グループのエヌ・エル・エム・エカル(NLMエカル)がコンテナきょう体を、東芝が外気冷却方式を使う空調設備を、能美防災が防災設備を、河村電器がラックと電気設備を担当する。データセンターの運用はIIJが行い、同社のクラウドサービス「IIJ GIO」に使用する。 通年で外気冷却を利用するため、従来型のデータセンターに比べて初期投資が40%削減されるという。データセンターの電力利用効率を示すPUE(P

    IIJ、サーバー冷却に外気を使うコンテナ型データセンターの実証実験、2010年2月から
  • データセンターがコンピュータになる時代 - 未来のいつか/hyoshiokの日記

    話題のThe Datacenter as a Computerなる論文を読んでみた。Googleの中の人が書いたインターネット時代のコンピュータの話だ。 http://www.morganclaypool.com/doi/abs/10.2200/S00193ED1V01Y200905CAC006 The Datacenter as a Computer: An Introduction to the Design of Warehouse-Scale Machines: Synthesis Lectures on Computer Architecture, 2009, 108 pages, Luiz André Barroso Google Inc. Urs Hölzle Google Inc. ムーアの法則で、半導体の集積度がどんどん上がってきて、通信コストも安くなってきて、コンピュー

    データセンターがコンピュータになる時代 - 未来のいつか/hyoshiokの日記
  • TechCrunch | Startup and Technology News

    While funding for Italian startups has been growing, the country still ranks eighth in Europe by VC investment, according to Dealroom. Newly created Italian Founders Fund (IFF) hopes to help…

    TechCrunch | Startup and Technology News
  • グーグルの最新のデータセンターは非常識なほど進化している

    昨日はITpro主催のイベント「ユーザー企業のためのエンタープライズ・クラウドフォーラム」に参加してきました。 日経コンピュータ 中田敦記者のセッション「みえてきたクラウドのコスト」では、グーグル、アマゾン、マイクロソフトの最新データセンターの動向を紹介してくれたのですが、これが非常に興味深い内容でした。セッションの内容からトピックを2つほど紹介します。 大規模データセンターは7倍効率がよい 1つ目は、日経コンピュータ2009年7月8日号で同記者が記事としても書いていることなのですが、データセンターの規模の経済について。1000台クラスの中規模データセンターと、5万台クラスのデータセンターを比較すると、大規模データセンターのほうが7倍も効率がよいというデータが示されています。 つまり、ユーザーがある大きさのコンピュータリソースを調達しようとするとき、大規模データセンターは中規模データセンタ

    グーグルの最新のデータセンターは非常識なほど進化している
  • Internet Archive、Sun のコンテナデータセンター内に移転 | スラド IT

    ストーリー by reo 2009年04月01日 13時00分 Sun MD S20 ってぷらっとオンラインで売ってるのね 部門より Web サイトや画像、音声/音楽、テキストなどさまざまなデジタルデータを保存・公開している Internet Archive が、このたび Sun Microsystems のコンテナ型データセンター内にホスティングされることになったそうだ (Ars Technicaの記事、家 /. の記事) 。 このデータセンターは 63 台の Sun Fire x4500 サーバーで構成されており、HDD は 1 TB のものを各サーバーあたり 48 台搭載。合計で 3 PB (PB = 1024 TB) もの容量を備えているそうで、「単一のデータベースとしては世界最大かもしれない」とのこと。OS は Solaris 10 で、ファイルシステムには ZFS を採用して

  • [データセンターの熱管理編]サーバーの間にすき間を空けてはいけない

    データセンターのラックにおいて,上下のサーバーの間にすき間を空けて設置しているのを見かけることがある。すき間を空けることで風通しをよくして,サーバーに熱がこもりにくくなるようにする意図だろう。この方法は一見もっともらしいが,実はデータセンターのラックでやってはいけない。 サーバーは前面から冷気を吸い,背面から熱気を排出する。すき間を空けることこの流れが変わってしまう。図の左部分を見てほしい。これはサーバーの間にすき間を空けた場合に,空気がどう流れるかを表したものだ。背面に排出された熱気が前面に循環してしまっている。サーバーはこの熱気を前面から吸気するため,サーバーに冷気が流れない。つまり冷却できないことになる。この循環が続くと,いずれは熱暴走を起こす危険もあり得る。 熱気の循環を防ぐのに有効なのがブランク・パネルを使うことだ。ブランク・パネルとは,ラックのすき間に取り付けるパネルのことだ。

    [データセンターの熱管理編]サーバーの間にすき間を空けてはいけない
  • Google、海上データセンタに関する特許を出願中 | スラド IT

    家記事より。 2005年には世界の電力の1%がデータセンタによって消費され、2020年にはデータセンタの二酸化炭素排出量は航空業界のそれを抜くという予想もあり、データセンタのエネルギー問題は各社にとって無視できない問題である。マイクロソフトはデータセンタ建設地としてロシアを検討しており、サン・マイクロシステムズは鉱山跡地の地下空間にデータセンタを設置する計画だが、Googleはデータセンタを海上にもっていくことにしたらしい。 Googleは海上データセンターに関する特許を出願中とのことだ。特許文書によると、岸から11km程の沖の船がデータセンタとなり、マシンは輸送コンテナ内にラックマウントされ、電力は波力発電、風力発電、潮力発電で供給され、淡水化した海水が水冷に利用される。さらに、データセンタを海上に置くことで固定資産税も削減できるため、エネルギー的にも税金対策としてもメリットがあるとの

  • グーグルデータセンターの内側--明らかにされた独自性

    サンフランシスコ発--先日、Googleの秘密が少しだけ明らかになった。 Googleがデータセンター業務を公開することは滅多にないが、米国時間5月28日、GoogleフェローであるJeff Dean氏が業務の一部を話題に取り上げた。28日に当地で開催された「Google I/O」カンファレンスの超満員の聴衆に対して講演を行ったDean氏は、Googleのインフラがいかに独特かを説明しながら、Googleの秘密を少しだけ明らかにした。 Googleはごく普通のサーバを使用している。プロセッサ、ハードドライブ、メモリも同様だ。 一方、Dean氏は、1800台のサーバで構成されるクラスタは、たいしたものではないというわけではないが、ごくありふれていると考えているようだ。しかし、Googleがそのようなハードウェアを使って、700〜1000台のサーバが使われる一般的な検索クエリに0.5秒以下で応

    グーグルデータセンターの内側--明らかにされた独自性
  • http://japan.internet.com/webtech/20071114/6.html?rss