前にも書きましたが、バイト先でWeb::Scraperを使ってます。 スクレイピング対象数が膨大な場合にちょっと困ったことが起きたので、今日はそれのmemo。 何が起こったかというと、スクレイピング先のサーバの調子が悪くて、500エラーなどを返したときに例外処理を書いていないとコケてしまうのだ。 例えば当ブログの最近の各エントリーページからのタイトル部分を引っ張ってくるとしよう。 #!/usr/local/bin/perl use strict; use Web::Scraper; use URI; use YAML; binmode STDOUT => ":utf8"; my @uri = qw(https://hoge.sub.jp/blog/archives/2007/11/post_303.html https://hoge.sub.jp/blog/archives/2007/11