2012年4月7日のブックマーク (66件)

  • カーネル/VM探検隊

    目的 カーネルや仮想マシンなどを代表とした、低レイヤーな話題でわいわい盛り上がるマニアックな勉強会です。 低レイヤー技術を勉強している人達の交流の場に出来ればと思います。内容 Linux・*BSD・Plan9・Windowsなどの各種OSのデベロッパー/ヘビーユーザー、セキュリティ界隈の方々、競技プログラミング方面や難読化プログラミングが趣味な方、VMMの研究者の方、社宅でBGP組みたい方、などなど様々な分野で御活躍中の方々に幅広くご参加頂いております。 発表内容は参加者の人種に偏りがありますので若干OS・VMM・ハードウェア・プログラミング言語などの話題に偏りがちですが、一応ノージャンルという事で、楽しければなんでもOK!というスタンスです。 是非貴方も発表しに来て下さい。 初参加なのでまずはLTをやってみよう!というのを推奨しています。

  • 日本の迎撃ミサイルすげええ!!海外で話題に | 秒刊SUNDAY

    の迎撃ミサイルがとんでもないことになっている!ただ、今回話題になっている迎撃ミサイルというのは北朝鮮から飛来してくるアレに対するものではなく、別の意味のようだ。先週の春一番の嵐ににより大きな被害をもたらした日列島。その報道の中でテレビで放映された映像がネットで話題になり、それが海外に飛び火し話題になっているようだ。 話題になったのはテレビに映し出されたお婆さんの写真。なんと突風に吹かれながらも必死に地面に足を固定させ、斜めの体制になりながらも耐えているという強靭な体力の持ち主だったのだ。この瞬間がネットでたちまちわだいになっていた。 この写真は、海外サイトにマイケルのような母として話題になっている。さすがにこの異様な姿は日のみならず、海外でも面白いようだ。オリジナルの写真のほか、アスキーアートやマイケルと一緒に斜めになる『アンチ・グラヴィティ・イリュージョン』(反重力ダンス)をコラ

    日本の迎撃ミサイルすげええ!!海外で話題に | 秒刊SUNDAY
    matsumoto_r
    matsumoto_r 2012/04/07
    おばあちゃん…
  • Windows+Apache+MySQL+PHP/Perl/Python環境を簡単に構築できる「AMPPS」NOT SUPPORTED

    matsumoto_r
    matsumoto_r 2012/04/07
    さすがwindows
  • まとめよう、あつまろう - Togetter

    コミュニケーションが生まれるツイートまとめツール

    まとめよう、あつまろう - Togetter
  • curl_multiでHTTP並行リクエストを行うサンプル

    curl_multiはselectシステムコールを使って同時に複数のHTTPリクエストを行うことができます。マルチスレッドやらマルチプロセスを使っているわけではなく、原理はnode.jsなんかと近いI/O多重化で、一度に一つのことしかしていません。 PHPcurlはlibcurlAPIをほぼ踏襲しており、ちょっと取っつきにくいです。クラスでラッピングして、curl_close()などはデストラクタで呼ばれるように自動化すると、もう少しすっきりすると思います。 <?php /** * curl_multiでHTTP複数リクエストを並列実行するテンプレ * */ //タイムアウト時間を決めておく $TIMEOUT = 10; //10秒 /* * 1) 準備 * - curl_multiハンドラを用意 * - 各リクエストに対応するcurlハンドラを用意 * リクエスト分だけ必要 * *

    curl_multiでHTTP並行リクエストを行うサンプル
    matsumoto_r
    matsumoto_r 2012/04/07
    この実装だとイベント待っていいけど、その間に他なにやる事があったらブロックせずにぐるぐる回した方が効率良さそ。select使ってるなら本質は非同期I/Oじゃないね
  • 超美麗で宇宙にいるかのような雰囲気が味わえるムービー「The Space We Live In」

    ドイツ在住のSFXプロデューサーMatthias Müller氏が作ったフルHDムービー「The Space We Live In」が非常に美しく、雰囲気もあり、フルスクリーンで見ると非常にいい感じです。 The Space We Live In - FULL HD Video - YouTube(1080p版あり) The Space We Live In on Vimeo 以下のようなシーンがぐりぐりと動いてくれます また、下記公式ページの「FREE WALLPAPERS」をクリックすると、以下の5種類のフルHDサイズ壁紙がダウンロードできます。 The Space We Live In http://matthiasm.de/sub/TSWLI.html このムービー自体、これだけでもかなりのクオリティなのですがやはりアップロードするために画質が落ちているという点も否めないため、個人

    超美麗で宇宙にいるかのような雰囲気が味わえるムービー「The Space We Live In」
    matsumoto_r
    matsumoto_r 2012/04/07
    曲が良い。ぜひyoutubeの1080pで。
  • TwitterがBitTorrentで高速にデプロイしている仕組みについて

    Twitterは、同社の何千台ものサーバに対してバイナリをデプロイする場合に、ピア・ツー・ピアシステムのBitTorrentを利用したツール「Murder」を用いていると、7月1日の記事「Twitterの大規模システム運用技術、あるいはクジラの腹の中(後編)~Twitterのサブシステム「Unicorn」「Kestrel」「Flock DB」」で紹介しました。 FacebookでもBitTorrentによる大規模なデプロイが高速に行われていることは、7月16日の記事「Facebook、memcachedに300TB以上のライブデータを置く大規模運用の内側」で紹介しました。 どうやら大規模システムにおけるデプロイではBitTorrentの利用が進んでいるようです。 7月15日付けのTwitter Engineering Blogに、Twitterエンジニア、Larry Gadea氏による「

    TwitterがBitTorrentで高速にデプロイしている仕組みについて
  • CentOSにhping3を導入

    CentOsにhping3を導入する際に、やった作業をメモ。 # wget http://www.hping.org/hping3-20051105.tar.gz # tar zxvf hping3-20051105.tar.gz # yum install libpcap-devel # ln -s /usr/include/pcap-bpf.h /usr/include/net/bpf.h # ./configure # make # make install libpcapdevelをインストールしておくことと、pcap-bpf.hをnet/bpf.hへリンクを貼っておくのが肝。

    CentOSにhping3を導入
  • ircdのExcess Floodを無効にする

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。 ircdを自分だけが使用し、大量に書き込みが許される状況では、ircdのExcess Floodの機能が非常に邪魔だ。 数キロバイトのテキストがircdに貯まるだけで、Excess Floodが発動し、強制ログアウトさせられる。 configで機能を削除する方法もあったが、とりあえずソースを弄って、Excess Floodの機能を削除した。 Excess Floodとmsg_readyエラーを削除する必要がある。 以下にソースを弄ったログを。 # less -N irc2.10.3p7+jp6/ircd/s_bsd.c 1935 1936 // READ ERROR キャンセル 1937 1938 /* ここからコメントアウト 1939 el

    ircdのExcess Floodを無効にする
  • Linux起動スクリプトのfunctionsメモ

    #!/bin/sh . /etc/init.d/functions # 色々書いて・・・ for chek in 1 2 3 do # 重要なコマンドを3回実行して・・・ RETVAL=$? [ $RETVAL = 0 ] && success && echo [ $RETVAL != 0 ] && failure && echo done exit 0 でこれを実行すると、 # ./boot_script.sh check 1 : [失敗] check 2 : [失敗] check 3 : [ OK ] てな感じで、起動スクリプトのような出力が可能。

    Linux起動スクリプトのfunctionsメモ
  • LVMをマウントしてデータを抜き出すメモ

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。 LVMを用いてファイルシステムを構築していて、そのHDDが壊れた時など、データ損傷し過ぎでどうにもこうにもいかなくなることがある。 そこで、別OSを起動してその壊れたHDDをマウントし、必要なデータを抜き出すにはどうしたらいいか。 ちょっと苦戦したので、そのメモ。 1,OS起動中にSATAを認識させる(HDDをSATAケーブルで接続後) # echo "scsi add-single-device 01 00 01 00" > /proc/scsi/scsi ※数字は「scsi番号 Channel Id Lun」、今回は「01 00 01 00」だった。 2,SATAが認識されたか確認 # cat /proc/scsi/scsi Host:

    LVMをマウントしてデータを抜き出すメモ
  • 簡易バックアップスクリプト

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。 簡単に作ってみた。 #!/usr/bin/perl use warnings; use strict; my $retval = "1"; my $master_dev = "/dev/sda1"; my $backup_dev = "/dev/hdc"; my $backup_dev1 = "/dev/hdc1"; my $master_dir = "/"; my $backup_dir = "/backup"; my $log = "/var/log/backup.log"; print "backup $master_dir ($master_dev) -> $backup_dir ($backup_dev1)\n"; my $moun

    簡易バックアップスクリプト
  • Zabbix API 同時にログインしたらapache+MySQLがループするバグ

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。 説明するまでもない、次世代の統合監視を担うオープンソースの代表格であるZabbix。ちょっと調査をする必要があったので、色々APIを試したりしていたときに発見した現象。 同時にZabbixAPIを叩きに行ったさいに、apacheとMySQLが高負荷状態に。その状態でWEBブラウザから他のクライアントがログインを試みてもタイムアウトになる。なんだーなんだーと思って調査してみたら、ログイン時にログを残す時のログID取得処理でバグがあった。 調査の内容は以下。 例えば、APIのクライアントから同時にZabbixAPIを叩きにいくと(zabbix-host-status-test.plは自分自身の監視を有効化したり無効化したりするスクリプト) ./z

    Zabbix API 同時にログインしたらapache+MySQLがループするバグ
  • LogZillaインストールと設定

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。 オープンソースとしてのログビューワーってあんまりいいものが内が、ようやくまともなsyslogビューワーが出てきたので早速いれてみた。 複数のサーバーからsyslogサーバーにsyslog-ngを用いて集中管理し、それらをビューワーで見るという使い方。 URLに変数などを仕込むことで、任意の期間の任意のホストのログだけを見るってこともできるので、障害時などのアラートとしてURLを送るなどの使い方もできる。 logzillaのインストールと設定系の日語のドキュメントは全くないので、ここに書いておく。 syslog-ngがインストールされている前提での手順。 ソースダウンロード # cd /usr/local/src # wget http://

    LogZillaインストールと設定
  • yumで便利なレポジトリの追加

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。 デフォルトのyumレポジトリにないからといって、ソースでインストールしたりとか、パッケージ作ったりとかしてる人が多かった。 意外と知らない人が多くてびっくりしたので、yumでかなり多くのパッケージをインストールできるレポジトリの追加方法を書いておく。 使い方はレポジトリを登録後、下記コマンド。 # yum –enablerepo=rpmfoge install syslog-ng レポジトリ登録方法は以下。 rpmforge(いわずもがな、大量rpm保持サイト) rpm ダウンロード # wget http://dag.wieers.com/rpm/packages/rpmforge-release/rpmforge-release-0.3.

    yumで便利なレポジトリの追加
  • 同じブロック数でフォーマットしてるのにディスク容量が違う現象対処メモ

    fdiskやsfdisk等で、sda1と同じディスク容量のパーティションを切りたい時は、fdisk内で同じブロックサイズを指定する。 しかし、実際にパーティションを切った後mke2fsでフォーマットするとディスクサイズが違っていて、tune2fsの結果も違ってたりする。 こういう場合は、ほとんどinodeのサイズが違っている場合が多いので、明示的にinodeサイズを指定してやる。 # mke2fs -i 4096 /dev/sdb1 また、その他下記コマンドでパラメータが違う場合は、適宜mke2fsやtune2fsのオプションを使って合していく。 # tune2fs -l /dev/sdb1 Filesystem featuresが違う場合などは、tune2fsで変更。 # tune2fs -o user_xattr,acl /dev/sdb1

    同じブロック数でフォーマットしてるのにディスク容量が違う現象対処メモ
  • HWADDRを書かずにethを固定する方法 | 人間とウェブの未来

    運用上、サーバーの筐体交換等を想定していると、 network-scriptsにHWADDRを記述した場合、交換後インターフェイスが上がってこないので、随時正しいHWADDRに書き換えてやらないといけない という問題がある。 それは面倒だが、NICが複数枚ある場合は、Linuxの仕様上Kernelがドライバに合うデバイスを見つけた順にethを割り当てていくので、ethが入れ替わったりする場合がある。 その対処方として、 HWADDRをethの設定に書いておくことで固定できる のだが、上記の運用上の問題でそれは難しい。 インターネット上でもほとんどがHWADDRを記述する方法でethの固定を行っている。 そこで、ドライバーの読み込み順序をsysconfig/networtkに記述してやる方法がある。 例えば、NIC1・NIC2がe1000eドライバで、NIC3・NIC4がigbだったとする。

  • 研究報告_vol.3

    そして、研究報告_vol.3として、今日発表してきた、僕自身の提案手法のレジュメとスライドを紹介します。 データマイニングの観点から変化点検出を利用したネットワークセキュリティの応用法について提案しまいた。 発表を聞いていた人達からの評判もよくて、「発表がよくて感動した」と言ってくれた人もいたり、大成功でした。 変化点検出とトラフィック特徴の相関関係を用いた手法です。 ■後期発表会資料 – トラフィック特徴量の時系列データにおける相関特性を用いた変化点からの異常検出 ・トラフィック特徴量の時系列データにおける相関特性を用いた変化点からの異常検出(レジュメ).pdf ・トラフィック特徴量の時系列データにおける相関特性を用いた変化点からの異常検出(スライド).pdf

    研究報告_vol.3
  • 研究報告_vol.2

    さて、次は前期発表会で紹介した内容のレジュメとスライドです。 前期発表では、現在オンラインで扱うことができるエンジンで最も精度がいいといわれているChangeFinderと呼ばれる変化点検出エンジンの理論と考察を行い発表しました。 これが、僕が「変化点検出を用いたネットワークセキュリティ」の研究をしようと思ったきっかけになりますね。 とりあえず、すばらしいエンジンです。 過去の記事で、これはプログラムに実装し、検証済みです。 記事:変化点検出エンジン ■前期発表会資料 – 統計的手法による時系列からの外れ値と変化点の検出 ・統計的手法による時系列からの外れ値と変化点の検出(レジュメ).pdf ・統計的手法による時系列からの外れ値と変化点の検出(スライド).pdf

    研究報告_vol.2
    matsumoto_r
    matsumoto_r 2012/04/07
    変化点検出とか新しい統計モデル(SDAR)とかその応用を勉強してたひと昔前に作った資料。最近変化点検出の話とか見るようになったけど、元々結構面白い話なんです。
  • 変化点検出の研究に対する悩み・解決編

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。 今回は、前々回の記事「変化点検出の研究に対する悩み」の解決編です。 なんとなく、このネットワークセキュリティの分野について、どのように研究していったらいいかがわかってきました。 それでは、議論の経過などもまじえて書いていきますね。 まずは、教授がおっしゃっているように、 「DARPA のデータとか,府大のデータ」を使ってみれば,一般性があるのでそうしたいと言うように読めるのですが,「DARPA のデータとか,府大のデータ」ですら,それらで OK だったから世の中のすべてのシチュエーションで OK にはなりません. 見る人によれば,「それも特定の環境ですね」と言われます. ということですが、僕自身、DARPAのデータや府大のデータを使うと一般性

    変化点検出の研究に対する悩み・解決編
  • 変化点検出の研究に対する悩み | 人間とウェブの未来

    ※兵庫の日海側の綺麗な海岸岩 ネットワークセキュリティを変化点検出の観点から研究しています。 しかし、色々悩みもあるわけです。 一応、自分の中で解決したので、それを残しておこうと思います。 まずは、悩んでいたことを紹介します。 僕は、ネットワークセキュリティを、 ネットワーク情報だけでなく、サーバー負荷情報も同時に検証することで、セキュリティ効率をあげよう と考えていました。 しかし、そこには様々な問題が立ちはだかっていたのです。 ようするに、今のChangeFinderという変化点検出エンジンで、適当にパラメータの変化点を調べて結果を出す、という手法の問題点を簡単に証明できない という問題です。 例えば、今の僕の勝手に作ったネットワーク環境で、何のノイズもないまま攻撃を加えます(これを手法1とする)。 当然ノイズはないので、適当にどれかのパラメータを時系列にかけていけば、攻撃を検出する

  • ネットワークセキュリティと変化点検出(1)

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。 ※宍道湖の湖辺にたたずむ兄貴 たまには研究のことでも書いておこうと思います。 僕の研究は、ネットワークセキュリティを変化点検出の立場から考えていこうというものです。 ここでいう変化点検出というものは、 ある時系列データ(時間に依存する数値データ)に対して、独自の変化点検出エンジンを用いることで、その時系列データのトレンドが変化した点を検出すること です。 すごく単純な話ですが、これが様々な分野、例えば株価の変動や気象の変化などトレンド変化を解析するような分野、に応用することができる手法なのです。 しかし、理論自体はやっていることと比べると、かなり難しくなっています。 ここでは、誰にでも(母親にでも)分かるように、簡単に変化点検出について説明し

    ネットワークセキュリティと変化点検出(1)
  • シミュレーションデータ作成プログラム | 人間とウェブの未来

    ※去年の春にいった鳥取砂丘、気持ちいい ARモデルを用いて、数値シミュレーション用のデータを自動生成するプログラムを作りました。 一応簡単なアルゴリズムとしては、ARモデルでノイズを期待値0、分散1のガウス分布に従って発生させ、1000時点毎に変化点があるようなデータとするために、ARモデルで発生させた数値に、変化量の初期値を5として、変化点毎に(変化量)-0.5していくような値を足していくようにしてます。 実行方法は、 gcc -lm ファイル名.c でコンパイルした後、 ./実行ファイル名 発生データ数 ARパラメータ1 ARパラメータ2 とすると、標準出力されます。 ファイルで用いる場合は、リダイレクトなどでテキストに落としてください。 ソースはこのようになってますので、変化点のアルゴリズムを弄ることで、発生データを自由にかえることができます。 ノイズ発生の関数の、期待値と分散の値を

  • 異常検出に関する妄想

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。 ※去年の冬にいった渦潮で有名な鳴門大橋 今日、不正アクセスやウィルスなどを、変化点検出エンジンを用いて検出する方法について、ふと思いついた方法がある。 プログラムでシミュレーションもしていないし、理論的にも単純すぎて、説得力がないような方法だが、意外と効果があるんじゅないのかな、と妄想している。 では、その方法について、メモ程度に記載しておく。 まず、今自分が使っている変化点検出エンジンプログラムは、1次元の時系列データに対して、変化点を検出することができる。 しかし、不正アクセスやウィルスなどは、サーバーから見たとき、厳密には1次元の要素だけで判断できるわけではなくて、例えば、トラフィック量やアクセス頻度、接続ノード数、LoadAverag

    異常検出に関する妄想
  • 変化点検出エンジン

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。 ※春に行った京都の玄武岩 さて、久々の研究報告です。 NECさんの開発している変化点検出エンジン「ChangeFinder」を、プログラムで実装してみました。 「ChangeFinder」は、これまでの従来の手法による変化点検出にかかる計算コストを大幅に削減した独自のアルゴリズムによって開発されています。 データマイニングの観点から、外れ値と変化点を区別して、変化点を検出することに成功しています。 このように、変化点と外れ値は同一のアルゴリズム内で扱うのは難しいとされてきた中で、計算量を削減した上で同一に扱えるというのは、かなり画期的な手法です。 それでは、実験的にデータを発生させたりすることで、適当な時系列データを作成し、どの程度の精度と計

    変化点検出エンジン
    matsumoto_r
    matsumoto_r 2012/04/07
    そういえばそろそろこれの応用考えないとなー。
  • トラフィック特徴量の相関特性を用いた異常検出

    ようやく今年一年の研究が一応は終了しました。 が、今やっている研究に関してはずっとやっていく予定なので、終わりではないですが、とりあえず一息いれるって意味で今年の研究のまとめを紹介しておきますね。 題目は「トラフィック特徴量の相関特性を用いた異常検出」です。 一番簡単にエッセンスを述べると、単一の特徴量だけでは、現在の不正アクセスは正常のアクセスと比較して区別しにくいため、複数の特徴量の相関関係を見ることで、不正アクセスを判断しようって内容です。 とりあえず作成したPDFを紹介します。 ■題目:トラフィック特徴量の相関特性を用いた異常検出 ・トラフィック特徴量の相関特性を用いた異常検出(概要).pdf ・トラフィック特徴量の相関特性を用いた異常検出(スライド).pdf ・トラフィック特徴量の相関特性を用いた異常検出(表紙・目次・文).pdf

    トラフィック特徴量の相関特性を用いた異常検出
  • トラフィック特徴量の相関特性を用いた異常検出[考察1] | 人間とウェブの未来

    今回の研究ですけど、当に時間が足りなかったなーって印象です。 では簡単な反省点をまとめておきます。 ■ 相関係数の計算 目標としては、一番不正アクセスとして判断の難しいHTTPに対するDoS攻撃を対象に手法を考えていったんですが、手法としてはそれなりなんですけど、相関係数を求めるピアソンの積率相関係数を使ったのが微妙かな、と。 この計算方法だと、時系列データの相関係数を得る際に窓サイズを決定して計算を逐次行うんですが、窓サイズに含まれる境で大きな値の影響を受けすぎてしまうんですよね。 後は、対象の数値が0の場合の処理と。 スピアーマンとかケンドールの順位相関を用いた方がいい結果が得られそうな気がします。 ■ 検出対象について あとは、トラフィック情報をパケット単位で扱っているんですが、対象ネットワークのクライアントとサーバの関係を考慮に入れると、もっといい結果が得られそうです。 今回は、

  • Linux Capabilityに関する疑問

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。 Capabilityをセットする際、セットしたいCapability *以外* のCapabilityを落としすことでCapability機能を実現している。その *落とした* Capabilityを再度同じプロセスにセットし直せない様な仕様になっているのは、どういうリスクを想定しているのだろうか。 もう少し踏み込んでみよう。 例えば、あるプロセスにあるCapabilityのみをセットした状態にし、それ以外のCapabilityは落とした状態とする。 そこで、 「プロセスにセットしてあるCapabilityを一旦落とした後、再度、直前までセットしていたCapability *のみ* をセットし直すことは可能だ」 という仕様を許可することは、リ

    Linux Capabilityに関する疑問
  • apacheモジュールのメモリ管理

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。 物欲日記ばっかり書かずに、たまにはお勉強の話でも。 fp = ap_pfopen(p, hoge.txt, "r"); if (fp == NULL) { fprintf(stderr, "%sは無いよ!\n", hoge.txt); return 1; } /* hoge.txt を色々弄って・・・*/ ap_pfclose(p, fp); apacheのモジュールについて最近勉強しているので、やったことをメモしていこうと思ってます。色々調べてて、メモリとかファイルハンドル回りでほーほーと思ったことをいくつか。 apacheモジュールはC言語にも関わらず、メモリのリソース管理はapacheがよしなにしてくれる。 apacheはリソース管理の

    apacheモジュールのメモリ管理
  • apacheの1.3系と2系との互換では

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。 とりあえず、apr_compat.hを2系でincludeしておくと良い。 マクロで定義したい場合は、とりあえず以下のマクロをやっとけば、1.3系のapを結構使えるはず。 #define ap_inline APR_INLINE #define ap_md5_ctx_t apr_md5_ctx_t #define ap_MD5Encode apr_md5_encode #define ap_MD5Final apr_md5_final #define ap_MD5Init apr_md5_init #define ap_MD5Update apr_md5_update #define ap_append_arrays apr_array_ap

    apacheの1.3系と2系との互換では
  • apache2系のmodule開発

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。 1.3系については、通称パンダに結構書いてあるので、情報量が少なめの2系モジュールに関する開発について。 基は、1.3系と違い、2系はhook関数というものを作ってそれをモジュールから登録し、apacheコアにhookさせて、登録した関数を実行させるという流れ。 モジュールというのは、結局のところ「apacheコアが呼び出すhook関数を登録するためにある」といってもいいくらいかな。 流れとしては、以下のようにhook関数を登録して、 static void register_hooks(apr_pool_t *p) { ap_hook_access_checker(lalimit_access_checker, NULL, NULL,

    apache2系のmodule開発
  • apacheへのrequestで消費するリソース量をloggingするモジュール

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。 ■ mod_resource_checker  [Download](apcheリソースloggingモジュール) サーバー内で複数のWEBサービスを提供したい場合に、chroot環境でのIPベースと、Virtualhostを用いたnameベースがある。 IPの枯渇や、ハードウェアにあまりお金をかけない、プロセス数の問題などで、最近ではnameベースを用いてサービスを提供することが多い。 ただし、nameベースでは様々な問題が起きる。 例えば、 VirtualHost毎にログを残す場合、VirtualHostの数が増えてくると、fdの数が足りなくなる セキュリティ的にsuEXEC環境をとらないといけなくなる DSO版phpにも対応できるように

    apacheへのrequestで消費するリソース量をloggingするモジュール
  • apacheモジュールでconfigをcreateする時の注意する事

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。 apacheモジュールで必須のconfig構造体を作成する作業。 これは、通常1.3系ではモジュール読み込み構造体(MODULE_VAR_EXPORT等)の3番目にディレクトリ毎のconfig、5番目にserver毎のconfigを作成する関数指定する。 2系の場合は、モジュール読み込み構造体(AP_MODULE_DECLARE_DATA等)の2番目にディレクトリ毎のconfig、4番目にserver毎のconfigを作成する関数指定する。 ここで注意しなければならないのが、configを作成した後、command_rec構造体から具体的なconfの値を設定していく時の扱い方。 ディレクトリ毎に使用するconfigは、command_recに

    apacheモジュールでconfigをcreateする時の注意する事
  • mod_limitipconnの制限内容の落とし穴

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。 かなり有名なmod_limitipconnですが、色々制限方法の記事をみていると、きっちりとその性能を説明できていないものが多い気がする。 あるディレクトリ以下又はファイルに対する同一IPからの同時接続数を制限するというのが、このモジュールの役目なんだが、大事なところが説明されていない。 例えば、よくある以下のような制限を行ったとする。 <Location /hoge> MaxConnPerIP 3 </Location> 多くの情報ではこの設定だと、 [warning] http://example.jp/hoge/index.cgi等、hoge/以下へのアクセスに対して、同一IPからの同時接続数を3に制限する。 [/warning] とか

    mod_limitipconnの制限内容の落とし穴
  • Linuxでシンボリックリンクを含んだパスを正しいパス(realpath)に変換する

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。 ■ realpath_for_fs() [Download] ・シンボリックリンクを含んだ絶対パスを安全にrealpathに変換 しばしば、シンボリックリンクを含んだ絶対パスをシンボリックリンクを含まない絶対パス(realpath)としてみたい場合がある。 特に、apacheモジュールを実装する上で、apacheはシンボリックリンクをrealpathに解析した上で、Directiveを見てくれないため、realpathでDirectiveを書いていても、シンボリックリンク経由でアクセスがあった場合は、Direvtiveのパスは無視される。 パスのBaseネームがシンボリックリンクであれば、symlinksコマンド等で調べることができるが、絶対

    Linuxでシンボリックリンクを含んだパスを正しいパス(realpath)に変換する
  • apacheモジュールで共有メモリを使ったプロセス間通信

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。 apacheモジュールでプロセス間通信を行う場合、共有メモリを使ってやる手法がある。 apacheモジュールでよく使われるaprで、共有メモリ用の関数が用意されているため、実装に問題が無い以上はaprを使った方が楽だ。 では具体的な使い方を。 apacheモジュールで共有メモリを使う場合は、apache起動時のレジスターフックのpost_configのタイミングで共有メモリ領域を確保してやるといい。 後は、確保時にディレクティブ毎の共有メモリの領域を覚えておき、起動後のリクエスト・レスポンス時のハンドラーで、それぞれの共有メモリ領域を呼び出してやればいい。 まずは、グローバルで共有メモリ領域へのポインタのベースとなる変数と、共有メモリ領域を宣

    apacheモジュールで共有メモリを使ったプロセス間通信
  • apacheモジュールでmutexを使った排他制御を実装

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。 apacheモジュールでプロセス間通信を行う場合に、共有メモリを使うと色々問題がでてくる。 preforkの性質上、複数のapache子プロセスがフォークされており、それらがそれぞれリクエストに対する処理を行うため、共有メモリ領域の書き込み時に衝突が起きたりして、データに齟齬が発生してくる。 それを防ぐのが排他処理だ。 今回は、aprで実装済みのglobal mutexを使って排他制御する方法を説明する。 まずは、グローバでmutexを宣言する。 #include "apr_global_mutex.h" #include "unixd.h" apr_global_mutex_t *mutex; 次に、apache起動時のpost_confi

    apacheモジュールでmutexを使った排他制御を実装
  • What is mod_vlimit. "limit the number of simultaneous connections"

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。 Preface This is the distribution page for the Apache module mod_vlimit. mod_vlimit allows “Apache HTTP Server” administrators to limit the number of  simultaneous connections(exec cgi php)  from the same IP address or all to any files. If client accessese are over the limit connections, mod_vlimit return 503 error message t

    What is mod_vlimit. "limit the number of simultaneous connections"
    matsumoto_r
    matsumoto_r 2012/04/07
    レポジトリを分離した
  • Apache hook関数

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。

    Apache hook関数
  • Linux Capabilityに関するまとめと更なる疑問

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。 Capabilityのビットの種類 プロセスに関するLinux Capabilityには4種類のビットがあり、それぞれ役割が異なる。 [note] P: Permitted E: Effective I: Inherited B: Bounding [/note] この中で、プロセスがCapabilityを必要とする操作をOSに対して要求した際、評価されるのはEビットである。しかし、Eビットを決定する過程で他のビットも利用される。 Capabilityのビットの関係 例えば、capset(2)システムコールを使う場合のビットの関係は以下のようになる。 [note] new P ⊆ old P new E ⊆ new P [/note] ここで

    Linux Capabilityに関するまとめと更なる疑問
  • 近頃のオープンソースクラウド基盤動向

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。 最近はクラウド基盤と呼ばれるオープンソースソフトウェアについて、セミナーや勉強会が盛んに行われている。 クラウド基盤とは、クラウド(コンピューティングリソースをプールしておき、必要最低限の手間で、消費者が使いたいと思ったときに、リソースをすぐにプロビジョニングできる状態)環境を構築するためのソフトウェアだ。 amazonEC2と同じような仕組みを作ることができると思ってもらえればよい。 僕自身もEC2等には非常に興味があるので、動向調査や研究の意味で勉強会にも参加したりしている。 ということで、現状のオープンソースのクラウド基盤でどういったものがあるのかを簡単にまとめようと思う。 注目されているクラウド基盤 現在、オープンソースとしてのクラウ

    近頃のオープンソースクラウド基盤動向
  • VirtualHost名だけでなくServeAliasもみる

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。 VirtualHost対応のために、アクセス時のホスト名とVirtualHost名をapacheモジュール内で比較させる方法がある。 しかし、これだけでは不十分で、実際にはServerAliasの設定がされているサーバーも多く、Aliasとマッチさせる必要もでてくる。 そのための関数を書いてみた。以下ソース。 static int check_virtualhost_name(request_rec *r) { int i; const char *header_name; const char *alias_name; header_name = apr_table_get(r->headers_in, "HOST"); if (strcm

    VirtualHost名だけでなくServeAliasもみる
  • 拡張子によってApacheモジュールの処理を適応するか判断するpatch(mod_ruid2版)

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。 ブログはかなり久々。 会社での実装でいいものが生まれたりするのが、なかなかそれを社外に公開するわけにはいかず、あまり技術的な創作物をブログに書くことができなかった。今は、会社2割大学8割のような比率で研究しているので、最近作ったpatchでも紹介する。 実装対象は、DSO版PHPなどでもsuEXECのようなアクセス制御が行えるmod_ruid2に対してpatchを書いてみた。 mod_ruid2は実装上、モジュールとしてApacheに読み込んだ場合、すべての動的コンテンツ実行時にサーバプロセスをsetuid、setgidしてしまう。しかし、ある特定の環境下では、任意の拡張子(.phpや.py)においてのみモジュールの処理を実行させたい場合があ

    拡張子によってApacheモジュールの処理を適応するか判断するpatch(mod_ruid2版)
  • mod_ruid2はgroupsを元の状態に戻せないのでpatch作成

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。 mod_ruid2はDSO版のPHP等を効率良くある程度安全に使うにはかなり良いモジュールである。 「ある程度」と書いたのは、それなりに脆弱性があるためで、それは今後紹介するとして今回はそこに関しては言及しない。 簡単なmod_ruid2の動作だが、preforkされているサーバプロセスに対してリクエストがあった場合、サーバプロセスそのものをリクエスト対象のファイルの権限(uidやgid等)もしくは任意 の権限に変更し、そのごリクエスト処理を行なって、最後に変更されたサーバプロセスの権限を元の権限に戻す。このあたりの細かい話はLinux Capabilityの話になってくるので省略する。 ところが、今回色々試していると、サーバプロセスのユーザ

    mod_ruid2はgroupsを元の状態に戻せないのでpatch作成
  • Apache 2.4.1のスループット評価(旧ApacheとNginxとのベンチマーク比較)

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。 久々のApache HTTP Server 2.4.1という安定版がリリースされたので、早速ベンチマーク評価を行う。今回はevent_mpmのExperimentがとれて、晴れてデフォルトMPMになったのでそれを使ってみたい。 日一(ひょっとすると世界一)早いApache 2.4.1 event_mpmのレビューを意識してみた。 はじめに 個人的にも、event_mpmが採用されたことに最も注目している。event_mpmは非同期型のIO処理をしていて、nginxに近いアーキテクチャをとっている。厳密には、nginxの非同期と比べた場合、nginxは徹底的にノンブロッキング(accept4を使う等)してworkerスレッドで次々と並列処理し

    Apache 2.4.1のスループット評価(旧ApacheとNginxとのベンチマーク比較)
    matsumoto_r
    matsumoto_r 2012/04/07
    ApacheとNginxの性能比較は、この記事が今年のApacheConでhttpdの中のボス(Jim)のプレゼンで取り上げられて、質疑の際にnginxの中の人との議論で、負荷時の処理耐性はApacheに分があることにnginx側も同意していた。
  • 引き続き Apache 2.4.1のスループット評価(旧Apacheと動的コンテンツ処理性能比較)

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。 前回の記事「Apache 2.4.1のスループット評価(旧ApacheとNginxとのベンチマーク比較)」を非常に多くの方に見て頂いており、こういう情報が重要なんだなぁ、としみじみ思った。多くのオープンソースを使わしてもらっているので、こういう形でフィードバックしていけたらよいな。参考にして頂いてありがとうございます。 今回は、前回の記事に続き、個人的にも非常に興味のあるApache2.4.1の「動的コンテンツのスループット」がどの程度なのかを評価したいと思う。 ※いくつかの検証を追加したのと、細かい部分で比較の仕方がよろしくなかったので修正を加えました。 ■ 修正と追記箇所(2012年3月2日) ・PHPのバージョンを5.3.10に統一(思

    引き続き Apache 2.4.1のスループット評価(旧Apacheと動的コンテンツ処理性能比較)
  • Apache 2.4.1まとめ – リリース後2週間を迎えて | 人間とウェブの未来

    Apache2.4.1がリリースしてから、約2週間たった。 自分が思っていた以上に、世の中の人はApacheやWebサーバに関心があるようで、この2週間でもかなりの検証や調査が行われていた。僕自身も、自分の記事をここまで見て頂けて光栄である。 ということで、2週間たったのでApache2.4.1に関して注目された(個人的に)9つの記事をまとめておきたいと思う。

  • Webサーバの仮想ホスティングにおけるパーミッション設定の答え(Apacheの場合) | 人間とウェブの未来

    Webサーバを構築する上で、複数のユーザーでサーバを共有する場合、Apacheの仮想ホスト方式(VirtualHost)を使う場合が多いと思う。この方式の利点としては、単一のサーバプロセスのみを動作させておけば良く、リソース効率が良いからだ。 個別のユーザーごとにサーバプロセスを立ち上げたり、chrootで区別したり、仮想マシンやコンテナ等で区別する手法があるが、Webサーバを共有したい目的においては、非常にオーバースペックな共有の仕方と言える。そのため、仮想ホスト方式を使う場合が多いのだが、ここでよくよく注意しなければならないことがある。 それは、セキュリティである。 仮想ホスト方式は単一のサーバプロセスで複数のユーザーを処理するため、サーバプロセスの権限で各ユーザー領域のファイルやディレクトリを処理できるようにパーミッション設定をしておかなければならない。その際に、例えば、あるユーザー

    matsumoto_r
    matsumoto_r 2012/04/07
    Webサーバのパーミッションをどうするべきかはここにまとめてます。
  • mod_process_security - Apache上でスレッド単位で権限分離を行うファイルのアクセス制御アーキテクチャ(前半編)

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。 ソース 「スレッド単位で権限分離を行うWebサーバ上のアクセス制御アーキテクチャ」として、3月15日16日に開催されたIA/IOT/SITE/ISMS合同研究会で発表してきた。概ね、好評だったように思う。ただ、やらないといけないことはいくつかあるので、そこはこれから大学で適宜やっていこうと思う。 まずは、この論文の概要としては、 大規模Webサーバ上で大多数のユーザー(仮想ホスト)を一つのサーバで処理するようなマルチテナント環境において、ユーザー間のセキュリティを担保するためのアクセス制御を行う技術 である。(これまではsuEXECが使われていた) これは、Webサービスが高度化していく時代において、低価格化がより望まれてきており、以前に増し

    mod_process_security - Apache上でスレッド単位で権限分離を行うファイルのアクセス制御アーキテクチャ(前半編)
  • mod_process_security – Apache上でスレッド単位で権限分離を行うファイルのアクセス制御アーキテクチャ(後半編)

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。 mod_process_security – Apache上でスレッド単位で権限分離を行うファイルのアクセス制御アーキテクチャ(前半編)の続き。 ソース 前半編では、Apacheにおける従来のファイルのアクセス制御の問題をパフォーマンスやセキュリティの観点から説明した。簡単にまとめておくと、 従来はCGI実行方式やDSO実行方式毎にアクセス制御が存在していた煩雑 CGIはそもそもアクセス制御有無に関わらず性能が低いしプロセスの生成も大規模に適していない FastCGIはプロセスを複数起動させておかなければならないので、大規模に適していない DSOのアクセス制御は性能を優先した場合はセキュリティが弱い DSOのアクセス制御はセキュリティを優先し

    mod_process_security – Apache上でスレッド単位で権限分離を行うファイルのアクセス制御アーキテクチャ(後半編)
  • 非同期I/OやノンブロッキングI/O及びI/Oの多重化について

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。 2017年5月20日追記 エントリはI/OのOperationとCompletionおよびデータ整合性を混ぜてまとめた一部誤った定義になっているので、正確な定義を日語で知りたい方は下記にリンクしたエントリを読むことをおすすめします。 非同期とノンブロッキングとあと何か Apache2.4.1のevent_mpmnginx及びnodde.jsのアーキテクチャを考える上で、非同期I/OやノンブロッキングI/O、I/Oの多重化に関してある程度正確な理解が必要だと思ったのでまとめておく。 ここで「ある程度」といったのは、非同期を表すAsynchronousとノンブロッキングのnon-blockingは曖昧に使われる場合が多いからだ。まず、英語

    非同期I/OやノンブロッキングI/O及びI/Oの多重化について
    matsumoto_r
    matsumoto_r 2012/04/07
    忘れてきた頃にちょいと復習
  • nginxの非同期I/Oとキャッシュ周りの実装について

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。 nginx-1.0.14のソースを見ていく。非同期I/Oをどのようにくししているのか非常に興味がある。まずは、リクエストを受け取った後、どのようにファイルを非同期で読み込みそれをキャッシュとして扱っていくのか、また、非同期であることの優位性をどのように実装しているのかを紐解いていった。 まずは以下の「ngx_http_file_cache_read()」関数でキャッシュの読み込みや更新を行っている。 [program lang=’c’ escaped=’true’] static ngx_int_t ngx_http_file_cache_read(ngx_http_request_t *r, ngx_http_cache_t *c) { t

    nginxの非同期I/Oとキャッシュ周りの実装について
    matsumoto_r
    matsumoto_r 2012/04/07
    あーこれこれ。この後、サイズ大き目のファイルへのリクエストを多発させたらnginxはリクエストをこぼしまくった、という記憶がある。JAISTのFTPとかでやったら一発でわかるんじゃないかな。
  • Webサーバのマルチスレッドでの実装における優位性をLinux Kernel 3.3のソースから読み解く

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。 表題の通り、現行のカーネルの実装において、マルチスレッドとマルチプロセスでの実装の優位性はどういう所にあるのかを知りたい、というのが今回の調査の意図だ。 そのために、前提知識としてマルチスレッドとマルチプロセスの特徴について、カーネルのソースを見ていきたいと思う。カーネルの海に飛び込むには、やはり最新のLinux Kernel 3.3のソースを選択することにした。前置きの段階で少し長くなってしまいそうだ。ではカーネルの海に飛び込みたいと思う。 とはいっても、まずは最初の一歩が必要なので、当たりをつけようと思う。キーワードは、 マルチスレッド マルチプロセス コンテキストスイッチ メモリ空間の共有 TLB(トランスレーション・ルックアサイド・バ

    Webサーバのマルチスレッドでの実装における優位性をLinux Kernel 3.3のソースから読み解く
    matsumoto_r
    matsumoto_r 2012/04/07
    昔調べたこのTLBのflushの話、今だとcachegrindのextend使ってTLBのキャッシュヒットの影響とか調べてみると良さそう、と昔の自分にアドバイスしたい
  • Apache 2.4.1のmod_luaでApacheに介入する(mod_rewriteの終焉?)

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。 といいつつも、そこまで大したことはしていない。 luaという高速に動作する組み込み系のスクリプト言語で遊んでみたかったのと、それだったmod_luaで遊んでみればいいなと思っただけである。で、実際にmod_luaをコンパイルして遊んでみた。コンパイルオプションは以下。 ./configure --prefix=/usr/local/apache2.4 --with-apr=/usr/local/apr --with-apr-util=/usr/local/apr --enable-modules=all --enable-mods-shared=all --enable-mpms-shared='prefork worker event' -

    Apache 2.4.1のmod_luaでApacheに介入する(mod_rewriteの終焉?)
    matsumoto_r
    matsumoto_r 2012/04/07
    そろそろmod_mruby使って、mrubyで実装したゴールデンバランサー!をサンプルで書いてみるかな。ゴールデンバランサーについて知りたい方はこちら。
  • Apache2.4.1のmod_luaをいきなり弄ってフックできる箇所を増やしてみたよ

    人間とウェブの未来(旧) 「ウェブの歴史は人類の歴史の繰り返し」という観点から色々勉強しています。2014年までの人間とウェブの未来の旧ブログです。 mod_lua、色々触ってみた所、すごい簡単にモジュールっぽい動きが実装できて、可読性も良くて便利。 ソース しかし、個人的にモジュール実装する時に良く使うのは、アクセスログ出力時のフック箇所(ap_hook_log_transaction)である。例えば、リクエスト毎にレスポンス処理前の最終段階であるap_hook_fixupsの段階でrusage()等でリソースの計測始めて、ap_hook_log_transactionの段階で差分を算出し、動的コンテンツ実行に利用したCPU使用時間等を計測する、といった使い方ができる。また、処理始めでカウンターを上げておいて、処理終わってログ書き込む段階でカウンター下げるといった使い方にもap_hook

    Apache2.4.1のmod_luaをいきなり弄ってフックできる箇所を増やしてみたよ
    matsumoto_r
    matsumoto_r 2012/04/07
    githubのソースを整理した
  • Engadget | Technology News & Reviews

    Hands-on with the new iPad Pro M4: Absurdly thin and light, but the screen steals the show

    Engadget | Technology News & Reviews
    matsumoto_r
    matsumoto_r 2012/04/07
    こういう時代はもう目の前だろうな。便利そう
  • TweetbotがiCloud対応のアップデート ー Singer Song iPhone

    メインで使用しているTwitterクライアントアプリのTweetbotがアップデートしてました。 Tweetbot ― 個性派Twitterクライアント (for iPhone) 2.2(¥250) カテゴリ: ソーシャルネットワーキング, ライフスタイル 販売元: Tapbots – Tapbots(サイズ: 10.5 MB) 全てのバージョンの評価: (806件の評価) アップデート内容 iCloud対応! 今までもTweetMarkerに対応してたので複数のデバイスでの未読位置の管理はできたんですが、DMは同期できませんでした。 iCloud対応によりDMの既読も対応です。 嬉しいですね。 なお今まで通りTweetMakerも使用できます。 YouTubeのサムネイル表示もいい感じ それにしてもこのアプリはどんどん機能アップしていきますね。 すごいなぁ。 Tweetbot ― 個性派

    TweetbotがiCloud対応のアップデート ー Singer Song iPhone
    matsumoto_r
    matsumoto_r 2012/04/07
    これはうれしい
  • Open vSwitchがLinux 3.3でメインラインにマージ、標準サポートへ

    3月18日にLinuxの最新版「Linux 3.3」が公開されました。今回のバージョンではAndroidプロジェクトのコードのマージが大きな特徴の1つですが、ネットワーク関係でも大きな前進がありました。1つはOpen vSwitchがメインラインにマージされ、Linux 3.3から標準サポートとなったこと、そしてネットワークインターフェイスを束ねて帯域幅の拡大を実現する「Teaming」機能が改善されたことです。 LinuxにはすでにLinux bridgeがありますが、Open vSwitchはさらに高度な機能を備えたソフトウェアスイッチとして標準サポートされるとのこと。仮想環境のソフトウェアスイッチとして普及しつつあるOpen vSwitchは、さらにその地位を固めようとしています。 なぜOpen vSwitchLinuxのメインラインに? ところで、なぜOpen vSwitchがL

    Open vSwitchがLinux 3.3でメインラインにマージ、標準サポートへ
  • Skeed、P2P技術を利用したデータ蓄積基盤ミドルウェア「SkeedObjectStore」

  • 新さくらのVPSでWebサーバを構築するテンプレ

    先日リニューアルされた「さくらのVPS」でWebサーバ(LAMP)を構築した際の基設定をテンプレートとして公開します。参考になればいいなと。 管理者アカウントの作成 # useradd -G wheel userName # passwd userName # vi /etc/pam.d/su -- 以下の行のコメントアウトを外す # auth required pam_wheel.so use_uid -- # visudo -- 以下の行のコメントアウトを外す # %wheel ALL=(ALL) ALL -- SSH設定 # mkdir /home/userName/.ssh # chown userName. /home/userName/.ssh クライアント側で公開鍵を作成し、サーバに公開鍵を転送 -- $ ssh-keygen -t rsa $ scp .ssh/id_rs

    新さくらのVPSでWebサーバを構築するテンプレ
    matsumoto_r
    matsumoto_r 2012/04/07
    cgi-binのディレクトリ、775とかしちゃうとapache介すとどのユーザーからも書き換えできるけど大丈夫?
  • IBM Developer

    IBM Developer
  • 旧・Macの手書き説明書 - FC2 BLOG パスワード認証

    ブログ パスワード認証 閲覧するには管理人が設定した パスワードの入力が必要です。 管理人からのメッセージ https://mac-tegaki.comへ移転中 閲覧パスワード Copyright © since 1999 FC2 inc. All Rights Reserved.

  • 論文の投稿先選びに役立つウェブサイトまとめ(Call For Paper編) - 情報科学屋さんを目指す人のメモ(FC2ブログ版)

    何かのやり方や、問題の解決方法をどんどんメモするブログ。そんな大学院生の活動「キャッシュ」に誰かがヒットしてくれることを祈って。 論文を投稿する国際会議を選ぶ際に役立つページ、特に今回は「投稿先候補をかき集める」ときに役立つサイトをまとめました。 論文募集のお知らせのことをCall For Paper(CFP)と呼びます。これから紹介するのはそのCFPを見つけたり、検索したり、比較したりするのに役立つサイトです。CFPを探すことは投稿先の候補を探すことに相当するので、投稿先探しの第一歩になります。 (CFPとは:会議名・対象分野・開催日・論文締切・採否通知日などがまとめられた論文募集のお知らせ。PDFやウェブページ、メールなどで配布される。) 普段からメーリングリストなどで最新のCFPを見張っておくことも重要ですが、候補をしっかりそろえるためにも検索サイトは重要だと思います。 たくさんのC

  • JavaScript is not available.

    Something went wrong, but don’t fret — let’s give it another shot.

    JavaScript is not available.
  • Linuxがどのようにして作られてきたのかが3分で分かるムービー「How Linux is Built」

    意識するしないに関わらず、思っている以上に触れることの多いOSがLinuxです。いったいこのLinuxが世界中でどれほど使われているのか、そしてどのようにして作られてきたのかが簡潔にわかりやすく示されているムービーが、The Linux Foundationによって作成され公開されています。 How Linux is Built - YouTube カタカタカタと0と1の羅列が登場して…… その中から「HOW LINUX IS BUILT」というタイトルが出現 意識していなくても、みんなLinuxを毎日使用しています。 例えば手元のスマートフォン。毎日、85万台のAndroid端末(Linuxベース)がアクティベートされています。 ちなみに、Windows Phoneは1日3万台です。 このムービーを再生してからここまででだいたい30秒弱ですが、その間に100台のAndroidスマートフォ

    Linuxがどのようにして作られてきたのかが3分で分かるムービー「How Linux is Built」
  • TechCrunch | Startup and Technology News

    Tesla chief executive Elon Musk says the firm is looking to invest in India and bring the electric carmaker to the country “as soon as humanly possible.” Musk said he had a “very goo

    TechCrunch | Startup and Technology News