ドットインストール代表のライフハックブログ
Javaソースコードの不具合やスタイル違反を発見するためのツールとして、PMD、Lint4j、Jlint、Checkstyleなどいくつかのものがある。ここではそうしたツールのひとつとしてFindBugsを紹介したい。ほかのツールと比べても強力で、Java開発において是非導入したいツールアプリケーションである。 FindBugsとは FindBugsはJavaコードにおけるバグを発見するためのツールアプリケーション。ソースコードではなくコンパイル後のクラスファイルを解析することで、ソフトウェアの不具合や問題点を発見するツールで、単体で実行し解析結果をテキストやXMLデータとして出力できるほか、Eclipse IDE、NetBeans IDE、Ant、Maven、SCAといったツールと連携しながら動作することもできる。 FindBugsはスタイルチェッカーではないし、セキュリティ問題を発見す
こんにちは satoです。 障害の多くの場合はハードディスク障害ですが、実際障害が起きた際に、どのように復旧するかをケース別に書いてみようと思います。 hdd のセクタが壊れた /var/log/message等に kernel: hda: dma_intr: status=0x51などど表示されているとハードディスク障害の可能性が高いです。 badblocks -vs -o hda1.sector /dev/hda1 (かなり時間がかかる)とやると 不良セクタが書き出されたファイル hda1.sector ができます。 fsck -l hda1.sector /dev/hda1 とやると不良セクタを使用しないようになります。いずれにしても早めの交換をお勧めします。 memoryが壊れた http://blog.miraclelinux.com/mita/cat218683/index.
Firefox など Gecko 系のブラウザでは、ロケーションバー(URL を入力するところ)に「about:config」と入力したときに出でくるページ(?)を通して、色々と設定を変えることができます。 このページは、about:config について説明している About:config entries の内容を私の独断と偏見で編集したものです。項目数が非常に多いため、いつ完成するかわかりません。また、内容の正確性については無保証であり、自己責任で利用してください。英文を読める人は上記サイトを直接、参照したほうがいいでしょう。(とはいえ、mozillazine のページもその内容に関する保証はありません。) 内容を一ページにまとめるのは困難だと判断したので、いくつかのページに分けて説明しています。例えば、bidi.browser.ui の情報を見るには、bidi.* と書かれたリンク
Java SE 6には、Java EEで導入が進められているXML関連のAPIの一部が取り込まれる。そのひとつとして永続化に関するAPIを挙げることができる。オブジェクトの永続化やデータベースとのシームレスな統合は、長年にわたってエンタープライズJavaにおける話題のひとつとなってきた。 本稿ではオブジェクトを永続化するAPIのひとつとしてXStreamを紹介したい。XStreamは簡単に永続化を行うことのできるAPIのひとつで、すでにいくつかのプロダクトで組み込まれている。 XStreamは動作が明解なので、オブジェクトからXMLへの永続化を体験してみるにはちょうどいいだろう。これを機にこれまでXMLへの永続化に縁の無かった方も体験してみて欲しい。
gcc を使う人は info gcc をくまなく読むべきだと言われたらそれでおしまいなのですが、info gcc の中で「Declaring Attributes of Functions」が面白かったので紹介します。 実は Mona のカーネル内で GDT(Global Descriptor Table) 関連のコードが最適化オプション -O2 では動くけど -O3では動かないという現象に出くわしました。 /* TSS. Mona has only one TSS */ setSegDesc(&g_gdt[4], (dword)g_tss, 0x00000067, SEGMENT_PRESENT | SEGMENT_DPL0 | 0x00 | 0x09);のように TSS を設定したあとに /* prepare dpl0 stack */ memset(g_tss, 0, sizeof(
http://blog.labnotes.org/category/scrapi/ ruby でスクレイピングして web の情報を取得するのには、今まで正規表現か xpath でやってたので、わりと面倒でした。で、ふと scrAPI というスクレイピングツールキットを知ったのですが、これがかなり便利そう。 このツールキットを使うと、CSS3 なセレクタを記述することで、要素を取得することができます。たとえばとあるサイトのリンクを全部取得したければ、 require 'rubygems' require 'scrapi' require 'open-uri' require 'nkf' require 'pp' $KCODE = 'u' links = Scraper.define do process "a[href]", "urls[]"=>"@href" result :urls e
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く