Presented in Kernel/VM tankentai vol.11, June 6, 2015. Alternate URL: https://speakerdeck.com/s1061123/nftables-the-next-generation-firewall-in-linuxRead less
Hyper-Vの仮想マシンにCoreOSを入れてみた。 のでまとめてみる 公式サイトから coreos_production_iso_image.iso をダウンロードしてそこからブート sudo passwd core でPasswordを設定してからのSSH接続 coreユーザーに一応パスワード設定するためのハッシュ生成に「openssl passwd -1」 PuTTygenでSSH鍵生成 cloud-configをちまちまと設定 sudo coreos-install -d /dev/sda -c config でインストール 停止してブートに使ったイメージ切り離してからの起動、からの設定適用にもう一度再起動 以上で完成? こんなかんじで出来たっぽい cloud-configはこんなかんじにしてみた #cloud-config users: – name: core passwd:
class: center, middle # Deep dive into # Docker storage drivers ## * ## Jérôme Petazzoni - @jpetazzo ## Docker - @docker --- # Who am I? - [@jpetazzo](https://twitter.com/jpetazzo) - Tamer of Unicorns and Tinkerer Extraordinaire.red[¹] - Grumpy French DevOps person who loves Shell scripts <br/> .small[Go Away Or I Will Replace You Wiz Le Very Small Shell Script] - *Some* experience with containers
今年の秋頃に将来nginxでJavaScriptが書けるようになるという話が出ましたが、nginxには元々サードパーティモジュールの中でも有名なngx_luaがあります。また、Advent Calendarを見るにngx_mrubyも盛り上がってきているようです。 そこで両者の比較エントリを書いてみようと思います。 まずngx_mrubyについてはこのカレンダーでさんざん語られてるのでngx_luaについて。 ngx_luaは簡単に言うとngx_mrubyと同じようなこと(あるいはそれ以上のこと)がLuaでできるnginxのサードパーティモジュールです。 例えば「Hello, World!」はこんな感じで書けます。 ngx_luaで利用できるLua処理系 ngx_luaではLua5.1とLua5.1互換のLuaJITが利用できます。逆に言うとLua5.2以上だとビルドできないので注意しまし
Norikra meetup #2でLTをしてきました。LTといいつつ時間に余裕があったので15分以上しゃべっていたような… atnd.org 発表資料はこちらです。 speakerdeck.com Norikraで不正アクセスの兆候があるアクセスログを検知して、検知次第IPアドレスをmemcachedに突っ込んでそれをもとにアクセスをブロックする、というネタでした。 ログの流し込みが詰まった場合に誤爆しないように、結果のtimestampに1分以上の間隔があった場合は max(time) - min(time) で補正するとか、クエリに後処理で使うための定数を埋め込んでおくことでクエリごとに挙動を調整しやすくするとか、そんなかんじの細かい工夫をしています。 あと皆さん気になっていたNorikraの冗長化ですが、active-standby構成であればすぐできる気はします。 うちはいまst
結局 golang の HTTP Response Body はどう閉じるのが正しいのか? - 押してダメならふて寝しろ でいろいろ考察して参りましたが, mattn さんが Russ Cox さんに聞いてくださって解決しました. resp.Body.Close の件、Russ Cox から返事貰った。err が返るならコネクションは閉じられているし、もし現状がそうなってないならば net/http を直すべきだと。なので、みんな間違ってなかった。 #golang— mattn (@mattn_jp) 2015, 6月 6 ということなので,今まで通りエラーかどうかチェックして Response Body を閉じればいい. 正) resp, err := http.Get("http://example.com/") if err != nil { // handle error } de
The guide below tries to explains how to easily install Mac OS X Yosemite 10.10 in a virtual machine using VirtualBox. It's based on this pastebin which I found via Google, adjusted to work with Yosemite. Legal disclaimer: Make sure to perform the following steps on a regularly purchased Apple computer, running a genuine OS X (host) operating system. How-to Preparation Download OS X Yosemite from
Ken Mazaikaさんの2015年1月31日付のブログ記事、Why I’m betting on Elixir And why you should too, unless you want to become a maintenance programmer.の翻訳です。 [翻訳] Elixir - 次に来る大物Web言語もそうでしたがなんかRailsのプログラマさんたちがやたらアツく語ってるんですね、Elixirを。 メンテナンスプログラマになりたくなければ1、なんてタイトルからして挑発的です。私の3つ前の仕事はまさにそういう保守系でしたけど。 あんまりアツいんで皆さんとアツさを共有したくて翻訳しました。 なおQiitaのCentOS + Erlang + Elixir + PhoenixのDockerイメージで今日から始めるElixir on Phoenix入門の追記のところでも
はじめに Gemfileを使ってgemを管理してるプロジェクトで、日常的にbundle exec 何々ってやってて、alias be='bundle exec'とかしてるけど、beすら打つのが面倒、って状況よくありますよね。 結論から 2013/12/26にリリースされたRubyGems 2.2.0以降であれば、環境変数でRUBYGEMS_GEMDEPS=-とすることでbundle execを使わなくてもGemfileを読んでくれる。 少し追記 RUBYGEMS_GEMDEPSは"gem dependency file"へのパスを指定する機能。RUBYGEMS_GEMDEPS=MyGemfileであればカレントディレクトリからMyGemfileを読むことになる。カレントディレクトリからの相対パス、絶対パスともに使用可能。存在しないファイルを指定してもエラーは出ないので注意。 "-"だけが特
最近、2つの出来事があり、私が行っているパフォーマンスへのアプローチ方法は、あまり広く知られていないようだと感じさせられました。 1つ目の出来事は、 redditでBufferBuilderを発表 した際に、初期のコメントで次のような質問をもらったことです。「Haskellを実行する時に、プロファイラを利用してコードのどの部分で処理が遅くなっているのか確認しましたか?」というものでした。もっともな質問ですが、私の答えは”ノー”でした。プロファイラは利用していません。なぜなら、Haskellのプロファイラで確認できる段階では既に遅すぎるからです。私はバッファを構築する効率的な方法を既に知っていました。境界チェックをしてから、保存(シングルバイトの場合)または複製(バイト列の場合)をするやり方です。これ以上の命令は意味がありません。ですから、BufferBuilderの開発にあたって最初にやっ
Elasticsearch x Autoscaling(AWS) 1. Amazon Web Searvice で実現する elasticsearchの大規模運用 × 株式会社インティメート・マージャー 松田和樹 2. 自己紹介 松田 和樹 株式会社インティメート・マージャー(社員数9名) 開発本部 • パブリックDMP「AudienceSearch」の開発 • 主にインフラ周りを担当 3. アジェンダ • IMにおけるelasticsearchの使われ方 • elasticsearchの構成 • 構成の決め方 • AutoScalingのポイント • その他設定のポイント 4. elasticsearchの使われ方 約4億のユニークIDに対して様々な属性情報を付与 • 閲覧履歴に基づくキーワード • 各メディアより提供されるセグメント • User Agent • アクセス元IPに基づく
Kafka Multi-Tenancy - 160 Billion Daily Messages on One Shared Cluster at LINE This document summarizes a presentation about Kafka multi-tenancy at LINE Corporation. The presentation discusses how LINE runs a single shared Kafka cluster to handle over 100 billion messages per day from many independent services. It describes the hardware used, requirements for multi-tenancy like protecting against
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く