ウェブページを丸ごと保存したいことがあるので作った。のを、社内LT大会があったので発表した。 HTMLまるごと保存 — Gist
wget --mirror -np $url とかやると、化け化けなファイル名で保存されて悲惨なことになった。なので、1 階層限定で、ファイル名を復元しつつ wget するやつを試しに作ってみた。再帰的に取ってこれるようにすると便利だろうなぁ。ファイル名をちゃんと扱える wget 的な転送ソフトとか、以下のスクリプトに関する patch とかあればオ願いします。 #!/usr/bin/perl use strict; use warnings; use Encode; use Encode::Detect::Detector; use URI::Escape; use WWW::Mechanize; my @auth = qw/id pass/; sub retrieve { my $url = shift; my $with_dir = shift; my $url_readable =
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く