タグ

2010年5月4日のブックマーク (7件)

  • Perl で短縮 URL を戻すサンプルスクリプト

    Perl で短縮 URL を戻すサンプルスクリプト 2010-03-29-1 [Programming] tinyurl や bitly などの短縮URLを元のURLに戻すサンプルスクリプトを Perl で書いてみました。 HEADリクエストなげて返ってくるデータを見るだけ。 コード(getlongurl.pl): #!/usr/bin/perl use strict; use warnings; use LWP::UserAgent; my $url = shift @ARGV; my $ua = LWP::UserAgent->new(timeout => 5); my $res = $ua->head($url); my $lurl = $res->request->uri || ""; print "$lurl\n"; 実行例: % ./getlongurl.pl http://b

    Perl で短縮 URL を戻すサンプルスクリプト
  • Running Hadoop On Ubuntu Linux (Single-Node Cluster) - Michael G. Noll

    What we want to do In this short tutorial, I will describe the required steps for setting up a single-node Hadoop cluster using the Hadoop Distributed File System (HDFS) on Ubuntu Linux. Hadoop is a framework written in Java for running applications on large clusters of commodity hardware and incorporates features similar to those of the Google File System and of MapReduce. HDFS is a highly fault

  • Probabilistic Latent Semantic Analysis : PLSA (Rで実装)

    前回のエントリからはや一ヶ月。月日が立つのは早いものです。 修論に向け、bag-of-featuresの実装をもくろんでおりますが、その一環としてPLSAを試してみました。 参考文献はこちら(リンク先pdf)。 T. Hofmann. Probabilistic latent semantic analysis. In Proceedings of the 15th Conference on Uncertainty in AI, 1999. ちょうど10年前に提案されたモデルですが、LDAの元となったり、現在でも多くの論文が発表されたりと、良い言語モデルのようです。 これをRで素直に実装したのがこちら。 plsi <- function(x, K=10, eps=0.9, max_itr=200,...){ #logsumexp logsumexp<-function(x,y,flg){

  • 非線形SVM - 人工知能に関する断創録

    今回は、非線形サポートベクトルマシンを試してみます。線形SVM(2010/5/1)は、カーネル関数に線形カーネル(ただの内積)を使いましたが、これを多項式カーネル(A)やガウスカーネル(B)に変更します。 カーネル関数は元のベクトルxを非線形写像によって高次元空間に写像した特徴ベクトルφ(x)の内積(C)で定義されます。 一般に特徴ベクトルφ(x)は高次元空間(無限次元空間でもOK)になるので普通にやってたら内積の計算量が非常に大きくなります。そこで、特徴ベクトルφ(x)の内積を計算せずに多項式カーネル(A)やガウスカーネル(B)の計算で置き換えるテクニックをカーネルトリックと呼ぶとのこと。多項式カーネルやガウスカーネルを使うとφ(x)を陽に計算する必要がなくなります。ただ、元の空間xでの内積は必要なんですよね・・・最初は、カーネルトリックのありがたみがよくわからなかったのですが、「入力空

    非線形SVM - 人工知能に関する断創録
  • スティーブ・ジョブズ:スタンフォード大学卒業式スピーチ - Stay hungry, Stay foolish. 貪欲であれ、愚直であれ。 : 我ら、地域の仕掛け人!

    Text of Steve Jobs' Commencement address (2005) - Stanford Report, June 14, 2005 この原文を私が日語に翻訳して字幕を作成して、分割なしの1の動画としてYoutubeに反映させました。 スティーブ・ジョブズ 日語で学ぶ伝説のスピーチ(字幕) 日語の翻訳付きの動画をご覧ください 以下は、その和訳を、原文の段落に従って掲載しましたので、動画を見て気に入った箇所を改めて読みたい方の参考になれば幸いです。 なお、それぞれの題目をクリックすると、その場面から動画がスタートするように設定していますので、ぜひご利用ください。 COMMENCEMENT ADDRESS.ありがとう。今日は世界で最も優秀と言われる大学の卒業式に同席できて光栄です。実は私は大学を出ていないので、これが私にとって最も大学の卒業に近い経験になりま

    スティーブ・ジョブズ:スタンフォード大学卒業式スピーチ - Stay hungry, Stay foolish. 貪欲であれ、愚直であれ。 : 我ら、地域の仕掛け人!
  • A Practical Guide to Support Vector Classi

    sleepy_yoshi
    sleepy_yoshi 2010/05/04
    SVM利用のノウハウ
  • ソフトマージンSVM - 人工知能に関する断創録

    前回(2010/5/2)のハードマージンSVMでは、データに重なりがある場合、下のようにちゃんと分類境界を求められませんでした。今回は、重なりのあるクラス分布に対応できるように拡張してみます。このようなSVMはハードマージンSVMに対してソフトマージンSVMと呼ばれます。別名としてC-SVMとも呼ばれるようです。 PRMLの7.1.1にあるように、データの誤分類を許すようにSVMを修正します。ハードマージンSVMでは、データ点がマージン内(-1 < y < 1)に絶対に入らないことを前提にしていましたが、ソフトマージンSVMでは「入ってしまったものは仕方ない、だがペナルティを与える!」と少し条件を緩めます。 まず、スラック変数ζ(ゼータ)をデータごとに導入します。スラック変数は、データが正しく分類されかつマージン境界上または外側にある場合は0、正しく分類されているがマージン内に侵入してしま

    ソフトマージンSVM - 人工知能に関する断創録