Software Streamlined solutions for every step of the compensation management journey
perl 5.8ではEncode.pmが標準モジュールとなり、多バイト文字を標準で簡単に扱えるようになりました。が、jcode.plやJcode.pmを用いたコード変換の経験があると、逆にこれが仇となって文字化けの嵐に遭います。(私の場合そうだったというだけで、普通はそんなこと無いのかもしれないのですが。)漸く最近になって基本的な考え方が飲み込めるようになって来たので、この辺をまとめておこうと思います。なお、本メモは新たにperl 5.8.x的なperlスクリプトを書く際に気をつけることをまとめたものであり、基本的には既存のスクリプトにperl 5.8 + Encode.pmを適用するためのものではありません。また、utf8でスクリプトを書くことを前提にしています。が、どちらにせよ、この知識は参考になると思います。(たぶん。) 本文冒頭ですが、まず参照先を示しておきます。以下のドキュメント
NAME SYNOPSIS ABSTRACT DESCRIPTION CAVEATS TO DO SEE ALSO NAME Encode::Guess -- データからエンコーディングを推測する SYNOPSIS # if you are sure $data won't contain anything bogus use Encode; use Encode::Guess qw/euc-jp shiftjis 7bit-jis/; my $utf8 = decode("Guess", $data); my $data = encode("Guess", $utf8); # これはうまくいかない! # もっと念入りなやり方 use Encode::Guess; my $enc = guess_encoding($data, qw/euc-jp shiftjis 7bit-jis/);
Lingua::JA::Summarize::Extract - 日本語文章のサマリ抽出 なんとなくPlaggerドリブンで日本語の文章の中から特徴的な文節を抽出するモジュールを書きました。 具体的にはGetSenというWebサービスをCPANモジュールで使いたかったという感じです。 CPANに上げてあります。 Lingua::JA::Summarize::Extract 簡単な使い方は use strict; use warnings; use utf8; use Lingua::JA::Summarize::Extract; my $extracter = Lingua::JA::Summarize::Extract-&gr;new; my $text = "日本語の文章を沢山書きます"; my $result = $extracter-&gr;extract($text); my $
perl でリンクを抽出する perl でリンクを抽出するには HTML::LinkExtor モジュールを使うのが便利だ。 $p = HTML::LinkExtor->new([$callback[, $base]]); まずは LinkExtor オブジェクトを作るわけだが、 callback 関数を指定しておくと、 リンクを見つけるたびに callback 関数が呼び出される。 callback 関数を指定していないときは $p->links で 含まれるリンクを明示的に読み出すことができる。 $base を指定しておくと、相対パスで指定されたリンクを 自動的に $base を基準にしたものとみなして絶対パスに直してくれる。 文字列からリンクを抽出したいときは $p->parse($strings) とするが、 ファイルからリンクを抽出するときは $p->parse_file($fi
Build a free website that grows with your business. Get access to customizable webpage designs and useful tools to build your website and grow your ideal business. Easily build a free website to help you get discovered and grow your customer base in style. Start today with our powerful free website builder.
GIGAZINEのログは膨大な量になっているため、以前まで使っていた「ApacheLogViewer」では毎日のアクセス解析に時間がかかりすぎるのと、今後のさらなるログの増大を考えると不安を覚えたので、いろいろと試してみた結果、「Visitors」というアクセスログ解析ソフトが超高速でよかったです。 大体、10万行を1秒~2秒ほどで処理してくれます。しかもサイトへの人の流れをフローチャート化することも可能。ユニークユーザーベースで解析してくれるだけでなく、検索ボットは除外したり、特定のリファラをブラックリストにしてノーカウントすることも可能。非常にすばらしいです。 また、Linux版だけでなく、Windows版も一応提供されています。やろうと思えばWindowsで解析することも可能です。 というわけで、実際にインストールして実運用するまでの手順をメモしておきます。参考になれば幸い。 ■解析
PodWalker〜耳で見る地図 ポッドキャスティングに時空をクロスさせる世界初の試み!「A地点からB地点までを実際に歩きながらそのプロセスを見えるように解説した音声を、別の人がA地点からB地点を目指しながら聞く」ことを「ポッドウォーカー」といいます。さあ!どんどん「道草」と「寄り道」をしよう!実験中です。
誰もが働ける社会をつくる ソーシャルファームを知って、考えて、動きたくなるワークショップ 【第1回】ソーシャルファームって何だろう? 「ソーシャルファーム(Social Firm)」は、「社会(ソーシャル)」と「会社(ファーム)」が組み合わされた言葉です。社会的な会社、というその意味に込められているものはなにかを紐解き、私たちにできることを考えていこう、というのがこの4回のワークショップ・シリーズです。第1回は、日本で最もソーシャルファームに詳しい、ソーシャルファームジャパン理事長の炭谷茂さんに、「ソーシャルファーム」の概要をおうかがいして、まず「ソーシャルファーム」とは何かを把握しようという回。30名を超える方々がヒカリエに集まってくださいました。*ソーシャルファームジャパンhttps://messe.nikkei.co.jp/files/EP3459/4-201510161012500
久々に cool な CPAN モジュールを紹介してみたりする。 memcached を Cache::Memcached から操作してると、キーの一覧が取得したい時があったりして、まぁ、memcached の仕様的にはそれが出来ないんですが、Cache::Memcached::Indexable というモジュールを使うことによって、取得出来る風です。 風ってだけに、実際は違うんですが。 概念的には Cache::Memcached 風のインターフェースで、set() やら get() やら delete() する時に、そのキーから、数パターンに納まる、本当に保存すべき key を取ってきて、そこに保存された、ちょっと大き目の hashref から、保存したり、取り出したり、削除したりするって概念。 use strict; use Cache::Memcached::Indexable;
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く