ブックマーク / plaza.rakuten.co.jp/kugutsushi (7)

  • 無線LANで WEP を使ったらダメ - 傀儡師の館.Python:楽天ブログ

    2008.10.23 無線LANで WEP を使ったらダメ カテゴリ:その他 「WEPを数秒で解読」報道を受け、総務省も注意喚起 から、総務省の資料、「安心して無線LANを利用するために」の改訂版についてなど読む。 それにしても、「WEPは10秒で解読可能」、神戸大と広島大のグループが発表 実験では、OSがWindows XP SP2、CPUがAthlon 64 X2 4600+ 2.41GHz、メモリ1GBというマシン環境で、104bit WEP鍵の解読に成功。盗聴した通信は20MB、解読に要した時間はわずか10秒だったという。 となると、もう完全に WEP はダメということね。古い WEP しか使えない無線LANを使っている人は買い換え時と。実際のところいまだに WEP を使っている人ってどのくらいいるもんなんだろう。 HP Procurve の ワイヤレスアクセスポイントはこのあたり

    無線LANで WEP を使ったらダメ - 傀儡師の館.Python:楽天ブログ
  • Yahoo! の日本語係り受け解析Webサービス API 等 - 傀儡師の館.Python:楽天ブログ

    2008.08.26 Yahoo! の日語係り受け解析Webサービス API 等 (4) テーマ:プログラミング言語 Python を使う(336) カテゴリ:ことばの処理 ちょっと今、時間がなくてできないのだが、Yahoo! が日語係り受け解析のWebサービス APIを公開したのね。ヤフー、係り受け解析と指定形容詞係り先検索をWebサービスで提供 等参照。 Yahoo!語係り受け解析Webサービス を使って、ヤフーの日語係り受け解析APIとサンプルプログラム「なんちゃって文章要約」 なんて作っている方がいらっしゃる。修飾はバッサリ省いちゃうのね。プログラムは Perl で書かれている。 Python だと inforno の方が PythonYahooテキスト解析 APIライブラリを日語係り受け解析に対応させました ってあるので、そのうち使わせていただこう。 ちなみに X

  • Yahoo!検索の検索語データの開放 - 傀儡師の館.Python:楽天ブログ

    2008.03.02 Yahoo!検索の検索語データの開放 カテゴリ:検索 国立情報学研究所の 「情報爆発時代のサーチ技術研究を加速する産学連携の開始 ~Yahoo!検索の検索語データの開放による研究の推進~」プレスリリース資料 を読む。 国立情報学研究所(NII)とヤフー株式会社は、このほど「Yahoo!検索」検索語データの利用について合意し、NIIが事務局を担当している、文部科学省科研費による特定領域研究「情報爆発時代に向けた新しいIT基盤技術の研究」(情報爆発プロジェクト)に、「Yahoo!検索」検索語データが無償で提供されることになりました。 ということで、Yahoo! 検索の上位 1万件のデータが 4月1日から無償提供されるらしい。平成20年3月3(月)、4日(火)に 文部科学省情報爆発プロジェクト成果報告会(H19年度) が秋葉原で開かれて、このあたりの研究の発表もよう(会費

  • 本は買う派?借りる派? - 傀儡師の館.Python:楽天ブログ

    2008.01.25 は買う派?借りる派? カテゴリ:どうでもいいこと @niftyラボ から 自分発見プロフィール アバウトミーをなんとなく見る。 は買う派?借りる派?を見たら、圧倒的多数で買う派が多い。その割には、昨年から、 # 2007年 * 4月 - リーフ出版・雄飛、破産。 * 9月 - あおば出版、破産。 * 9月 - 桃園書房・司書房、自己破産。 * 9月 - 朝日ソノラマ廃業、朝日新聞社へ版権譲渡。 * 10月 - エクスメディア、破産申請。 * 12月 - 山海堂、倒産。 # 2008年 * 1月 - 新風舎、民事再生法を申請するも18日付で同手続きの廃止決定。破産手続き入り。 * 1月 - 草思社、民事再生法申請。 出版不況 (Wikipedia) なのだ。 質問を見て思った。「読まない」という選択肢がない。を読まない人は答えられない。この手は使える。 お気に入り

  • Google の日本語解析データ - 傀儡師の館.Python:楽天ブログ

    2007.11.03 Google の日語解析データ カテゴリ:ことばの処理 グーグルが大規模な日語の解析データを公開、「20%ルール」の成果 グーグルでは、200億文に上る日語データを解析したという。含まれている単語は、約2550億個。1~7gramのデータを公開しており、例えば7-gramのデータは11億種類以上にも上る。 Google Japan Blog: 大規模日語 n-gram データの公開 を読む。 すごいなぁ。特定非営利活動法人 言語資源協会 の GSK2007-C Web日語Nグラム第1版 で公開されているのね。といっても無料じゃないけど。「抽出対象となった文数は約200億文で、出現頻度20回以上の1~7グラムを収録している。」で DVD-R 6枚の 26GB(gzip で圧縮した状態で)。すごい量だな。ちなみに 個人・非会員42,000円か。んー、個人でも会員

    Google の日本語解析データ - 傀儡師の館.Python:楽天ブログ
  • goo と BIGLOBE の評判検索サイト - 傀儡師の館.Python:楽天ブログ

    2007.10.24 goo と BIGLOBE の評判検索サイト カテゴリ:検索 「goo 評判検索」がリニューアル、評判情報をグラフでわかりやすく表示 の  goo 評判検索 と、 BIGLOBE、評判分析サービス「みんなの評判」に紅葉スポットの評判情報を追加 の  BIGLOBE みんなの評判 を見る。 パッと見た目のわかりやすさは goo のが分かりやすい。けれども実際の評判のチェックには BIGLOBE の方が分かりやすい。BIGLOBE は表面のデザインを再検討した方がいいかも。直感的に goo の方は商品の評判でも対象を限ってしまうことによって、特定分野でまず鍛えて強くなるという戦略で、BIGLOBE の方が幅広くやっていこうという感じか。微妙に戦略に差があるような気がする。 BIGLOBE 評判検索 【紅葉版】 の方向はおもしろかもしれない。月別とか、対前年比が出るようにな

  • TTM: TinyTextMining で簡単なテキストマイニング - 傀儡師の館.Python:楽天ブログ

    2007.10.24 TTM: TinyTextMining で簡単なテキストマイニング カテゴリ:ことばの処理 TTM: TinyTextMining を見る。テキストファイルをドラッグアンドドロップすると、CSV 形式で結果ファイルを作ってくれる。自由記述のアンケートの分析のために作られたのかな。KH-Coder と比べると気軽に使える。 形態素解析は MeCab を使っているので、あらかじめダウンロード、インストールしておく必要がある。結果として作られるファイルは、次のものでクロス集計まで出してくれるのでけっこう便利かもしれない。 語のタグ別出現度数(単語頻度) 語のタグ別出現度数(文書頻度) 語×タグのクロス集計(単語頻度) 語×タグのクロス集計(文書頻度) 語×語のクロス集計(文書頻度) テキスト×語のクロス集計(単語頻度) 使い方は簡単で TTM: 初心者のためのインストールガ

  • 1