タグ

廃熱処理に関するpitworksのブックマーク (5)

  • 今年こそクーラーから卒業! 熱帯夜を乗り切る快眠グッズ - はてなニュース

    梅雨も終わりに近づき、いよいよ夏番が近づいてきました。日が暮れても暑くなってきて寝苦しいという方も多いのではないでしょうか。はてなブックマークで話題になっている快眠グッズを集めてみました。これで暑い熱帯夜も乗り切れるかも……? 暑く寝苦しい夜は「冷え冷えマット」で超快眠のススメ - RX-7乗りの適当な日々 まずは、はてなブックマークで最近ものすごい人気を集めている「ひえひえマット(Hie Hie mat)」。よくあるジェルタイプの冷却剤ではなく、塩の結晶を使って常温のままでも冷感が持続するという優れものです。はてなブックマークではさっそく買ったという人の他、無印良品で同様の商品が購入できるというコメントがありました。 「冷え冷えマット」を買おうと思ったけど高くて躊躇した人におすすめする「竹シーツ」 - あおうさ@日記 上記の「ひえひえマット」が高くて購入をためらわれている方は、より安価

    今年こそクーラーから卒業! 熱帯夜を乗り切る快眠グッズ - はてなニュース
    pitworks
    pitworks 2009/07/10
    冷房故障時の冷却対策に応用したいな。
  • [サーバー運用編]1ラック60A以上使用してはいけない

    データセンターなどで準備されている19インチ・ラックは,全高1800mm~2000mmのモデルが一般的だ。ユニット・サイズで言うと35Uから45Uまでが収納可能である。1Uサーバーの高さは44.45mmなので40台まではマウントできるが,ラックのユニット・サイズのギリギリにマウントすると,メンテナンスが困難になるため,スペースの余裕を考慮して30~35台を搭載するのが一般的だろう。 しかし,消費電力を考慮しないでこの数のサーバーを積み上げていくと,後で面倒なことが起こる。システムの寿命が短くなったり,運用性,メンテナンス性の低下したりするのである。 現在,流通している2GHz前後のデュアルコア・チップを搭載した1Uサーバーの最大消費電力量は約200W~220W程度。実効値を70%として電圧100Vで稼働させるとすると1台当たり3A(200~220W/70V)の電力量が必要となる。これを1ラ

    [サーバー運用編]1ラック60A以上使用してはいけない
    pitworks
    pitworks 2009/06/23
    90Aの電源を使ってラック内のシステムを稼働させるとサーバー内に冷却できないほどの熱がたまってしまう。よって60Aを目安にそれ以上は使わないのが無難
  • FPN-ゼイヴェル・大浜史太郎社長へのインタビューを読んだ

    6.ビジネス分析フレームワークを学ぶ ビジネス分析フレームワークの学習と使い方 ビジネス分析 フレームワークや 経営学 の学習をどうビジネスリサーチに役立てるか、その考え方と留意点について解説します。… 2021.05.08 2021.05.09 115 view 3.ビジネスリサーチの報告書作成 ファクト、ファクト、ファクト〜事実に基づくこと 「What's Your Story?」という提案や提言がないレポートは意味がない、ということがよく言われますが、ビジネスリサーチの報告書は、内容の8〜9割は ファクト … 2021.01.19 2021.05.16 303 view 4.インプリケーションと提言 リサーチを通じて気付いたことは?公開情報から点と点を結ぶイン… インサイダー情報はそのままでは役に立たない!?ビジネスリサーチの依頼の中で、「業界の空気感はどうなっているか?」「この技術

    FPN-ゼイヴェル・大浜史太郎社長へのインタビューを読んだ
    pitworks
    pitworks 2008/12/08
    多くのデータセンターに供給される電力の半分以上は熱として発散してしまい、IT機器やその他設備まで到達さえしていない 電気代の無駄遣いレベルを指標化したのが「PUE」 PUEを良くする事がiDCの目標
  • [データセンターの熱管理編]サーバーの背面にケーブルを垂らしてはいけない

    データセンターのラックに設置するサーバーは,ラックマウント型サーバーの薄型化やブレード・サーバーの登場で,1ラック当たりに搭載するサーバー台数が増加している。それに比例して,ケーブルの数も相当な量になっている。仮に高さが42Uのラックに1Uのサーバーをすべて設置すると,少なくとも各サーバーに電源ケーブル,ネットワーク・ケーブル,ストレージ接続用ケーブルの3があるので,100を軽く超える計算になる。実際にはそこまでの多くないまでも,冗長用のケーブルも多数あるため,似たような状況に陥っていることは多いだろう。 ケーブルが多くなると,熱の問題が出てくる。多数のケーブルがサーバーの排気口を塞いでしまうからだ(写真)。背面から熱気を排出できなくなるので,サーバーは空気の循環が行えず,熱による障害につながる可能性が高まる。サーバーの背面にケーブルを垂らしてはいけないのである。

    [データセンターの熱管理編]サーバーの背面にケーブルを垂らしてはいけない
    pitworks
    pitworks 2008/11/27
    42Ux3本だと120本を超える。 ケーブルが多くなると多数のケーブルがサーバの排気口を塞いでしまうので、サーバの背面にケーブルを垂らしてはいけない。
  • [データセンターの熱管理編]サーバーの間にすき間を空けてはいけない

    データセンターのラックにおいて,上下のサーバーの間にすき間を空けて設置しているのを見かけることがある。すき間を空けることで風通しをよくして,サーバーに熱がこもりにくくなるようにする意図だろう。この方法は一見もっともらしいが,実はデータセンターのラックでやってはいけない。 サーバーは前面から冷気を吸い,背面から熱気を排出する。すき間を空けることこの流れが変わってしまう。図の左部分を見てほしい。これはサーバーの間にすき間を空けた場合に,空気がどう流れるかを表したものだ。背面に排出された熱気が前面に循環してしまっている。サーバーはこの熱気を前面から吸気するため,サーバーに冷気が流れない。つまり冷却できないことになる。この循環が続くと,いずれは熱暴走を起こす危険もあり得る。 熱気の循環を防ぐのに有効なのがブランク・パネルを使うことだ。ブランク・パネルとは,ラックのすき間に取り付けるパネルのことだ。

    [データセンターの熱管理編]サーバーの間にすき間を空けてはいけない
    pitworks
    pitworks 2008/11/27
    熱気の循環を防ぐのに有効なのがブランク・パネルを使うことだ。ブランク・パネルとは,ラックのすき間に取り付けるパネルの事。// 最近はhalf 1Uもあるので運用が難しい・・・。
  • 1