タグ

perlとStorableに関するishideoのブックマーク (4)

  • perl - Cache::File と Storable : 404 Blog Not Found

    2006年10月24日16:00 カテゴリLightweight Languages perl - Cache::File と Storable 出来ます、というよりCacheははじめからStorableをサポートしてます。 [を] Data::Dumper で eval するメモ Cache::File[2006-10-17-1]でStoreble[2006-05-09-2]を使いたいのだが、 できそうもないので(何か良い方法があったら教えて下さい)、 なにしろ、$cache->get()を$cache->thaw()に、$cache->set()を$cache->freeze()にそれぞれ変えればいいだけなのですから楽すぎます。 一例として、404 Blog Not Found:perl - xml2jsonp.cgiで紹介したxml2jsonp.cgiをCache対応にしてみたのでご

    perl - Cache::File と Storable : 404 Blog Not Found
    ishideo
    ishideo 2006/10/25
    JSON-Syck Cache-File
  • [を] Perl の Storable モジュールのメモ

    Perl の Storable モジュールのメモ 2006-05-09-2 [Programming] Perl の Storable モジュールでちょっとだけ複雑なデータを扱うときの 自分用 SYNOPSIS。参考「続・初めての Perl」[2006-05-09-1]。 #!/usr/bin/perl use strict; use warnings; use Storable qw(nstore retrieve); my ($first, $second); $first->{uhyo} = { 'abc' => 123, 'xyz' => 9, }; $first->{hogera} = { 'AAAAA' => [1, 2, 3], 'ABCDEF' => [60,1], 'W002' => [9, 1, 2], }; test_print($first); nstore [

  • Data::Dumper / Storable - しがない「げのまー」の・・・。

    後輩に渡していた拙作のサブルーチンがどうしても途中で OutOfMemory してしまう。後輩から使用したデータを受け取り、サブルーチンに渡すデータセットに分断してテストしたら OutOfMemory はしない。が、確かに分断しないで行なうと OutOfMemory 。全データを数個のファイルに分割して計算させると OutOfMemory しない。 「データを適当に分割して掛けてくんない?」って言ったら「全体を見渡したいので、データは分割したくない。」との答え。こちらのサブルーチンも改造したくない。 # 問題となったサブルーチンではグローバルな変数・配列・ハッシュは全く使っていない。返ってくるのはネストしたハッシュへのリファレンス。 しかたないので、サブルーチンの出力結果を hash の構造を保持したままテキスト or DB 化する事にした。弱いなあ、俺。 my %hash = { hog

  • Storable v.s. Data::Dumper - Practice of Programming

    Storableが速い。 Benchmark: timing 3000 iterations of code1, code2... code1: 0 wallclock secs ( 0.57 usr + 0.00 sys = 0.57 CPU) @ 5263.16/s (n=3000) code2: 2 wallclock secs ( 1.96 usr + 0.00 sys = 1.96 CPU) @ 1530.61/s (n=3000)コードはこんなの。 use Benchmark; use strict; use Storable; use Data::Dumper; $Data::Dumper::Purity = 1; $Data::Dumper::Terse = 1; $Data::Dumper::Indent = 0; $Data::Dumper::Pad = ''; my

    Storable v.s. Data::Dumper - Practice of Programming
  • 1