サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
iPhone 16
nodoka.org
後日、問題が発覚したのでこちらを参照下さい(2019年1月追記) 自宅のサーバたちを長らく使ってきたCentOSからUbuntuへリプレイスしていく。Ubuntuにはデスクトップ版とサーバ版があるんだけど、検証で使っているDesk mini 110にはサーバ版が入らなかったので、デスクトップ版をとりあえずインストール。我が家でUbuntuを本格的に利用するにはIntel CPUを使ったハードウェア・エンコーディングを確立する必要がある。いわゆるQSVエンコードと言われているやつ。もちろんソフトウェア・エンコーディングでも問題はないんだけど、デグレードさせてまで別のOSにしたくはないし。 なぜ、UbuntuでQSVエンコードが難しいかと言うと、Intelが出しているIntel Media Server StudioというSDKが、CentOS7向けに作られているから。一応、Genericイン
epgrec UNA + mirakurunによる録画環境で数日に1回くらい録画が失敗する問題。前回、ログの出力内容からmirakurunのTSFilter.jsで問題が起きているところまでわかった。このクラスはstream.Duplexを継承していて、その継承元にbuffered writeのような処理がある模様。素直に考えれば何らかの事情でwriteが進まず、書き込むべきdataがbufferに貯まっていき、いずれoverflowに至ると。根本対策としてはwriteが滞ることの改善、それが無理ならbufferを大きくして枯渇までの時間を稼ぐ。 less /usr/local/var/log/mirakurun.stderr.log : 2017-06-09T00:31:32.229+09:00 warn: TSFilter is overflowing the buffer... 20
前回、chefからansibleへの移行記事をまとめたが、その際にさらっとgather_factsの高速化に時間を使ったと触れた。そもそも素でansibleを使うとデフォルトで処理前段にgather_factsの処理が入る。これが何をしているかというと、各ノードのOSやスペック、ネットワーク情報などの収集だ。ansibleはサーバサイド・プッシュな動きをするので、ansible-playbookを実行すると対象ノード全てに処理を行う。gather_factsの処理も同様で対象ノード数に比例して処理時間が伸びていく。1ノードならまだしも、10ノードを超えだすとその待ち時間は耐え難いものに。chefサーバの場合はサーバプロセスが存在したので、その中でこの手の情報をキャッシュしてくれていたのだろうが、ansibleにはサーバプロセスが存在しないため、毎回律儀に各ノードから取得する羽目になる。 g
やる事が多過ぎてなかなか進まない、録画サーバ構築。気になる事は全部片付けた上で少しずつ進めていくので、冗談抜きで1年くらいかかるかもしれない。今まではwindows10とCentOS7できれいに棲み分けていたので、構成管理もシンプルだったんだけど、録画サーバ作ろうとなってからその辺りもいろいろ見直す必要が出てきそうだ。win10とcentosのデュアルブートやCentOS6の利用など。それはそれでおいおいまとめるとして、そろそろチューナーボードの検討を進める。とはいえ、選択肢はほぼなくて販売終了して高価格化しつつあるPT3 Rev.Aか、安定性についての評価が分かれるPX-Q3PEだ。それぞれの利点欠点は以下。 PT3 Rev.A 動作が安定している Linux用のドライバが出ている ダブルチューナー 販売終了に伴い高価格化 PX-Q3PE 安定性に問題あり Linux用のドライバは出てい
録画サーバの構築に当たって、一旦はwindowsでシステムを作ってみた。感想としては想像以上によく仕上がっていて、このまま使い続けてもよさそうに思うほど。しかし、自分としてはリモートからのCLI管理を重視するため、Linuxでの運用も試しておきたい。ただし、今回選択したPX-Q3PEにはLinux用の公式ドライバが用意されていない。にもかかわらず、foltia ANIME LOCKERという有償ソフトはCentOS6でPX-Q3PEを動作可能にしている。初めてのシステムを作るときはとにかく成功パターンを確立する事。まずはこのソフトの評価版を使って、CentOSでのPX-Q3PE動作を確認する。このソフトはアニメ録画を中心とした作りになっているようなので、スポーツ/ドラマ/バラエティを録画したい自分としてはそのまま使い続けるかどうかも判断したい。 foltiaをインストールする前に自宅環境の
導入以来、想像以上にタフに動いてくれているglusterfs。当初はcephfsとの選択を迷う時期もあったが、現時点ではglustefsが自分の環境にはフィットしている。2ノードの3TBディスク8本の構成なので、分散FSとしての性能はまったく期待していない。8本の中でRAID10的なdistributed-replicateを構成しており、その冗長性とネットワーク経由でのファイルシステムの共有に大きな価値を見出している。ファイルシステムレベルで冗長性を確保できたことによって、多くのミドルウェアの冗長性を気にする必要がなくなり、構成管理が非常にシンプルにすることができた。あくまで個人管理の趣味システムを前提とした話だが。 当初よく起きていた問題が、冗長化された2つのデータが異なってしまう障害。それをglusterfsではSplit-Brainと位置付けている。もしかしたらデータを3つに冗長化
前回その不安定さからcephfsの利用を見送ったので、今回はglusterfsを評価してみる。glusterfsの特徴は他の分散ファイルシステムに比してシンプルである事。管理ノードみたいなものは存在せず、メンバー全員が公平にファイルを管理してくれる。全く同じノードを幾つも作って、それが一体的に動いてくれるので、運用管理効率は高いと言える。自宅環境のような多くても数台程度のクラスター管理であれば、cephよりglusterfsの方が合っているように思う。 cephはブロック単位の分散だったが、glusterfsは幾つか選択肢がある。 distributeと呼ばれるファイル単位の分散 stripeと呼ばれるraid0のような分散(ブロック単位) disperseと呼ばれるraid5のような分散(ブロック単位) これらと組み合わせる事が可能なreplicate構成 1〜3と4を組み合わせる形で冗
自宅の超重要データはdropboxに同期したので一安心。しかし、それ以外にも5TB超の有象無象のデータがある。中身は過去のメールのバックアップやPCのディスクイメージ、CDやらDVDのiso、果てはPSPやらPS2のisoまで。もはや必要かどうかすら怪しいが、消すのも面倒なので貯まっているようなものたち。3TBx4本のraid5を2つ作って運用してきたんだけど、有効容量が8分の3という非効率さ。加えて、同期用のcronがしばらく消えていた。cronの仕込みをchefで管理していたんだけど、recipeの修正ミスでした。 こういうことがあり、改めて自宅のファイルサーバの冗長環境を見直す。できれば手動rsyncなどを使わずに仕組みの中で同期して欲しい。ついでに何とかしたいのは、サーバ間のファイル共有と共有スペースの冗長化。ヤフオクのお陰でノード数が増えて、現在サーバ用途は4台。4台とも同じデー
なんと技術系のネタは夏以来。 もともとは技術ブログのつもりだったのに何てことだ・・・。 過ごし易い季節だったので、外ばかり行ってたからだけど。 そんな訳で、すっかり寒くなってきたせいか家で何かをする時間が増えてきた。 今回は特定の使い方をすると、kernel panicを起こす現行のkernelをupdateしてみる。 昔はmakeやら何やらでえらい時間がかかったものだけど、今はyumで一瞬で終わる。 yumはその時点で最新のものに更新してしまうので、インストールしたrpmを 明示的にローカルに保持しておくように注意する。 何かあったら、この実績の出来るであろうカーネルに再び戻せるようにするためだ。 さっそく以下のコマンドで更新対象カーネルを確認する。 今回は最新 kernel.x86_64 2.6.9-89.0.11.EL になる。特に問題なければ更新する。 yum list | gre
何年も前の記事で、BINDとMyDNSの連携についてまとめたことがあった。その記事が未だに参照される事が多いので、今回は現在のDNS周りの考え方を整理しておく。結論から言うと、以前と考え方は大分変わり、BIND+MyDNSの構成は既にやめて、BIND単体での運用に切り替えている。MyDNSをコンポーネントから外した理由は幾つかあるのだが、最も大きな理由がオープンリゾルバの問題だ。数年前にオープンリゾルバの脆弱性を利用して悪質な攻撃の踏み台にされてしまう問題が起きた。それ以降リゾルバの利用に対し制限をかけて最低限の範囲でのみ使える設定に変更した。 BINDでオープンリゾルバの問題を回避するには、自ゾーンのみはどこからでも無制限に引けて、それ以外のゾーンは任意の接続元のみ引けるような設定にしたい。しかし、前段BINDで自ゾーンのみ後段MyDNSにforwardする構成の場合はそういう設定が出来
このページを最初にブックマークしてみませんか?
『nodoka.org – veni vedi vici』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く