JavaScript ニューラルネットワーク デモ これは2014年に作ったデモをjsdoitに再投稿したものです。 本家はこちら デモに際して解説スライドを作りました そのままコピペしたため幅が足りないのでフルスクリーンでご覧ください これは何? これは人工ニューラルネットワークのHTML5での視覚化です。「XOR問題, 関数近似, パターン認識」の3個の簡単なデモを試すことができます。 いくつかのパラメーターや実行速度を変える事ができます。 どうやって使うのですか? デモをリストから選んでください 「終了条件」を設定してください(「誤差によるもの(by error)」と「学習回数によるもの(by steps)で選ぶことができます」) 「学習(train)」ボタンを押すと学習が開始します。学習が完了した時には、ボタンのラベルが「retrain」になります。 パラメーターの詳細 Numbe
【最終更新 : 2017.12.17】 ※以前書いた記事がObsoleteになったため、2.xできちんと動くように書き直しました。 データ分析ガチ勉強アドベントカレンダー 17日目。 16日目に、1からニューラルネットを書きました。 それはそれでデータの流れだとか、活性化関数の働きだとか得るものは多かったのですが、Kerasと言うものを使ってみて、何て素晴らしいんだと感動してしまいました 今まで苦労して数十行書いていたものが、わずか3行で書ける! 正直、スクラッチで書く意味って、理解にはいいけど研究や分析には必要あんまないんですよね。車輪の再発明になるし。 と言うわけで、使えるものはどんどん使っていこうスタンスで、今日はKerasの紹介です! Tutorial+気になった引数を掘り下げて補足のような感じで書いています。 ちなみに、各部のコード以下をつなぎ合わせるとmnistの分類器が動くよ
Eclipse 3.7 で Maven 使えるようになるところまでの設定 - kagamihogeのblog とだいたい同じこと書いてありますが、自分メモ用にちょっと書き直した感じ。 環境 Eclipse 4.2.0 ※3.7以降ならこのエントリで書いてある手順と同一でいけると思われる。 ※2013/09/14 追記 Eclipse Kepler(4.3) IDE for Java EE Developers では最初からプラグインが入っているので、このエントリの手順は不要。 このエントリのサマリ EclipseのMavenプラグインであるm2eのインストール Mavenプロジェクトの作成 pom.xmlに依存性追加 ※Mavenのビルドツールとしての側面には触れてません。 やること m2eのインストール Help > Eclipse MarketPlaceを選ぶ。 こんな感じのダイアログ
概要 とりあえずMahoutをEclipse上で動かしてみる。 その後、Mavenでのインストールを実行し、Hadoop(擬似分散モード)と絡めて動かしてみる。 Hadoopのインストール手順については扱わない。 前提条件 前提条件として、Mavenが入っている必要がある。MavenはUbuntuならapt-get、RHEL系ならyumで入る。Cygwinの場合は公式サイトから落としてきてパスを通す。 Mahoutは最新の0.7のソースを使ってみる。 CDHで入れるという手もある。若干バージョンは古い(CDH3で0.5、CDH4で0.6)けど安定はしてるはず。 CDHの場合は、レポジトリの設定をCDH用のにする。 Eclipseのプロジェクトを作成する まずはEclipseでMahoutが動くプロジェクトを作成する。 Eclipseはm2e(MavenのEclipseプラグイン)がデフォル
Eclipseの設定 チュートリアルのページではjavacコマンドを使ってコンパイルしているが、やはりコーディングにはEclipseを使いたい。 Hadoopのjarファイルをビルドパスに追加するだけでよい。 jarファイル 備考 チュートリアルのソース チュートリアルのソースはHadoop0.20.1より前のバージョンのものらしく、0.20.1だとコンパイルが警告になる(警告になるだけで、実行は出来る)。 なので、(正しいかどうか分からないけど^^;)0.20.1用に直してみた。 // http://oss.infoscience.co.jp/hadoop/common/docs/current/mapred_tutorial.html 2010-02-21 package jp.hishidama.hadoop.tutorial; import java.io.IOException;
このドキュメントでは、チュートリアルとして役立つことを目的に、ユーザーが触れる Hadoop Map/Reduce のすべての側面についてまとめて説明します。 Hadoop のインストールと設定が済み、すでに実行されていることを確認してください。詳細については、以下を参照してください。 Hadoop を初めて使うユーザーは、Hadoop クイックスタートを参照してください。 大規模な分散クラスタを使うユーザーは、Hadoop クラスタセットアップを参照してください。 Hadoop Map/Reduce は、どこにでもあるごく普通のハードウェアで構成した (数千ノードの) 大規模なクラスタ上で、膨大なデータ (数テラバイトのデータセット) を並列処理するアプリケーションを簡単に記述できるようにするソフトウェアフレームワークです。 通常、Map/Reduce のジョブは、入力データセットを独立
RMSE (Root Mean Squared Error) は数値予測問題における精度評価指標の1つ. 予測値が正解からどの程度乖離しているかを示す. モデルの予測精度の”悪さ”を表すため0 に近い値であるほど優れている. 下記計算を行いスコアを算出する. N : 全予測対象数 yi : 実績値 y^i : 予測値
さて、夏休みもそろそろ終わり。総力(自分のですが)を結集して、一仕事してみたいと思います。 今回のログでは、MahoutのサンプルにあるParallel ALS(という次元縮約の分散計算アルゴリズム)を使ったジョブを動かしてみる。 Mahoutに、Parallel ALS(Alternating Least Square)が実装されているということは、協調フィルタリング(リコメンデーションエンジン)のエリアにとどまらず、注目に値することと思う。 注記: Mahout0.7では、Amazon EMR(Hadoop1.0.3)で動いたのだが、0.8になってジョブが変更されており、RMSEまで計算したところでジョブが落ちてしまう。 RMSEが計算されているということは、予測値(リコメンデーション)まで計算できているということだが、ここでは、0.7の環境で実行する。 $MAHOUT_HOME/ex
追記:2013/9/17 このログの続編の投稿が完了しましたので、記事の末にリンクを追加しました。これで、このログの方法を応用した分散レコメンデーションエンジンの構築もばっちり(のはず)です。 先のログでは、Parallel ALS(Alternating Least Squares)を用いたレコメンデーションの理論面のフォローアップと、Apache Mahoutでの実装を少し詳しくみた。 このアルゴリズムは極めてシンプルで、かつ、Apache MahoutではHadoop上でスケーラブルに実装されている。 Apache Mahoutは発展途上のプロジェクトなので、スケーラブルに実装されているアルゴリズムとそうでないアルゴリズムがあって、レコメンデーションについていえば、0.8では、アイテムベースのレコメンデーション、Slope Oneレコメンデーション、Parallel ALSを使ったレ
Collected by Cai-Nicolas Ziegler in a 4-week crawl (August / September 2004) from the Book-Crossing community with kind permission from Ron Hornbaker, CTO of Humankind Systems. Contains 278,858 users (anonymized but with demographic information) providing 1,149,780 ratings (explicit / implicit) about 271,379 books. [ ! ] Freely available for research use when acknowledged with the following refere
前回は 5ユーザ, 7アイテム, 21評価 という非常に小さいデータでした。さて、今回は大きめのデータを使ってみましょう。6040ユーザ, 3900アイテム, 100万評価です。 データの準備 GroupLensというラボが、評価データを公開してくれています。研究開発目的に限り無償で利用できるので、今回はこちらを利用させてもらいましょう。 MovieLens | GroupLens このデータはMovieLensと言い、映画の評価情報の塊です。データ規模別に3つに分かれています。 943ユーザ, 1682アイテム, 10万評価 6040ユーザ, 3900アイテム, 100万評価 71567ユーザ, 10681アイテム, 1000万評価(+10万タグ) ここでは、(何の根拠もないですが)100万評価を選びました。「1M Ratings Data Set (.tar.gz)」ってのをDLしまし
概要 Mahoutのexamples/binの下には、cluster-reuters.shというロイターの記事をクラスタリングする処理を実演してくれるシェルがいる。 このシェルでは、seqdirectoryとseq2sparseという2つのコマンドを使って、テキスト文書をVectorに変換している。 これを参考にして、青空文庫から取ってきたいくつかの文書をクラスタリングして遊んでみる。 Mahoutのバージョンは0.7。 bin/mahout seqdirectoryは、テキストファイルの入ったディレクトリから、シーケンスファイルを生成する。 とりあえず下記のようなテキストファイルを適当なディレクトリ(仮に/tmp/tekitou/sample.txtとする)に入れて、実行してみる。 我輩はプログラマである。 仕事はしていない。 ファイルはHDFSに置く。 $ hadoop fs -put
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く