タグ

2009年5月10日のブックマーク (5件)

  • Why LD_LIBRARY_PATH is bad

    By David Barr. Background This is one system administrator's point of view why LD_LIBRARY_PATH, as frequently used, is bad. This is written from a SunOS 4.x/5.x (and to some extent Linux) point of view, but this also applies to most other UNIXes. What LD_LIBRARY_PATH does LD_LIBRARY_PATH is an environment variable you set to give the run-time shared library loader (ld.so) an extra set of directori

  • 徹底的に腹筋トレーニング - [男のエクササイズ]All About

    気になるボディライン。特に、お腹周りが気になる方も多いのではないでしょうか。そこで、器具なしで自宅でも出来る腹筋のトレーニング方法を御紹介致します。 トレーニングをする前に 腹筋のトレーニングをする前に次の点に注意してください。 ・腹筋上部の種目、下部の種目から最低一種目ずつ選んで行いましょう。 ・目標回数ができなくてもOKです。フォームがキープできなくなったらセットを終えてください。回数は調整しても構いませんので、できるだけ3セット行うようにしましょう。 ・インターバルは30秒~1分で3セット連続で行いましょう。 ・1日3種目を週に3回は行いましょう。余裕があれば毎日行っても構いません。 ・腰が痛む方は無理をしないように注意しましょう。 それでは早速始めましょう! 腹筋上部のトレーニング 【スライドクランチ】 25回/3セット

    徹底的に腹筋トレーニング - [男のエクササイズ]All About
  • 本を読む 「Debug Hacks」出版記念イベント

    書籍「Debug Hacks」の発売記念トークイベントが、新宿のジュンク堂で開かれた。ちょうど持ってなかったので、買いがてら、イベントに参加してみた。 今回は、内容とかの技術的な話じゃなくて、執筆裏話が中心。作業工程の話がいろいろ聞けた。バタバタしながらも、オンスケジュールで出版できてよかったですね。 の中身はこれから読みます。以下、メモ(敬称略)。 自己紹介 大岩 発起人のひとり 大和 大岩と、を書きたいねといってたら実現 吉田 あとから参加 仮想化あたりを担当 自分のがオライリーから出るなんて イベントやって、人気作家みたいでうれしい 安部 発起人の3人のひとり 島 コントリビューター ミラクルではない 安部の知り合い アメリカからリモートで執筆 裏話 源流の源流(大岩) 社内で20%ルールを検討 結局やらなかった でも自分は開発したいものはない ではを書こう ダンプの見方と

  • アマゾンAPIを使うのに2009年8月15日から認証が必要になるらしい

    アマゾンAPIを使うのに2009年8月15日から認証が必要になるらしい 2009-05-09-1 [Programming][Affiliate][WebTool] 「Amazon アソシエイト Web サービスの名称変更および署名認証についてのお知らせ」というメールが来ました。 (追記: ほぼ同内容のものが Forum とアソシ公式ブログにもありました。ただし Forum では15日ではなく16日となっています。) さて、このたび、Amazon アソシエイト Web サービスの名称を、「Product Advertising API」と変更しましたことをお知らせいたします。この新名称は、開発者の皆様が Amazon サイトで販売されている商品の広告作成を行い、これによって Amazon より広告費を受け取るという、API の目的をより正しく表しています。 はいはい、了解しました。 「Pr

    アマゾンAPIを使うのに2009年8月15日から認証が必要になるらしい
  • きまぐれ日記: 「読めてしまう」コピペがなぜ読めてしまうのか

    http://www.asks.jp/users/hiro/59059.html http://www.itmedia.co.jp/news/articles/0905/08/news021.html 最初読んだとき、違和感なく読めてしまったのですが、よくよく見てみると、そんなトリックがあったのですね。 さて、この「読めてしまう」がなぜよめてしまうのでしょうか? 人間の言語モデルの単語パープレキシティは、約100ぐらいであると言われています。どういうことかというと、 人間が文章を読んでいるときに、次の単語を過去の文章から推測するのは 1/100 程度の 確率で正解するということです。 件のコピペですが、最初の文字は変わらないので、その正解率は平仮名の数(52)倍になります。 すなわち、52/100 =~ 0.5 実際には、最後の文字も変わらないし、 単語の長さが変わらないというもの、大きな