サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
WWDC25
techblog.haroid.io
こんにちは @muddydixon です。 docker をサービスでも利用していますが、ローカルの開発でもガシガシ利用しています。 コンテナでミドルウェアを利用したり、各種のマイクロサービスを整えた開発環境を構築したり、というのは王道だと思いますが、言語環境としても利用しています。 以前は xbuild を利用していたりもしたのですが、 mac だと brew や xcode 、 linux だと gcc や libXXX など各種依存ソフトウェアに悩まされていました。 また普通に container を立ち上げその中で vim をつかう、ということもしていたのですが、私は未だに emacs の呪縛から開放されない旧人類なので、コード自体はローカルのエディタを利用したいので「コレジャナイ」と思っていました。 課題 言語のバージョンアップやそれに伴う依存関係に悩みたくない Python 2
サーバエンジニアの @toritori0318 です。 今回は、社内で利用するための便利ツールを書いたお話をします。 動的なインフラストラクチャ 弊社ではTV企画毎にサーバクラスタを起動するため、日常的にサーバが増減します。1 また企画によって利用するサービス(投票/抽選/キャッシュ/etc...)を選択することが可能なため、企画毎に得たいメトリクスリソースも異なることになります。 その際、様々なサーバリソースを一元で確認するための企画毎メトリクスダッシュボードが欲しくなるのですが、それをおまとめして可視化するために弊社ではGrafanaを利用しています。 企画クラスタに対して今までは定常的なモニタリングが必要な場合にのみ手動ポチポチでダッシュボードを作っていたのですが、クラスタが新規作成される毎に手動登録するのは運用としてはあまりよろしくありません。 そこである程度運用を楽にするため何ら
どうもこんにちは。わんこ。です。 この記事は Twilio Advent Calendar 2017 の12/5の投稿となります。 システム利用者に押し付けないオペレショーンの自動化 とか偉そうなタイトルにしましたが、簡単に言うと架電によるサーバーのスケール対応の仕組みを作りました。というお話です。 何番煎じだよ!って感じなのですが、構築部分よりもプロセスに重きを感じていただければと思います。 番組連動コンテンツ HAROiDはテレビ番組への参加型コンテンツのサーバーを構築/運用することが多いです。 番組放送時以外はアクセスは0ですが、放送開始(企画開始)と同時に全国に設置してあるテレビ端末から一斉に押し寄せます。急に数万rpsにもなるリクエストと、全くアクセスのない時間の区切りがはっきりしているのが特徴です。 もちろん番組放送の直前にサーバーをスケールアウトしていたのですが、嬉しいことに
このページを最初にブックマークしてみませんか?
『techblog.haroid.io』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く