藤田です。 今回はSpark MLlibを使ってレコメンドエンジンを試作しました。 MLlibは機械学習用のライブラリですが、機械学習の知識が少なくても比較的楽に簡単なレコメンドエンジンを作ることができました。 試作にあたっては、確率統計などのあまり知らない分野に触れることができました。データ解析や人工知能など機械学習にはさまざまな可能性があり、その一端にすこし触れることができ、とても身になりました。
![Apache Spark MLlibでレコメンドエンジンの試作をしました - クリエーションライン株式会社](https://cdn-ak-scissors.b.st-hatena.com/image/square/1fb4222f1b14efd220e5a364621ef7798cedebf7/height=288;version=1;width=512/https%3A%2F%2Fwww.creationline.com%2Fcms_iL3DVvxR%2Fwp-content%2Fuploads%2F2015%2F12%2Fspark-logo-trademark.png)
はじめに 前編では MLlib で実装されている協調フィルタリングについて、アルゴリズムの面から解説してみました。 いわば理論編です。 後編は実践編として Java コードや性能評価実験の結果を見ていきます。 MLlib 協調フィルタリングの実行 MLlib の協調フィルタリング org.apache.spark.mllib.recommendation.ALS を利用する Java のコード例を以下に示します。 import org.apache.spark.api.java.JavaRDD; import org.apache.spark.mllib.recommendation.ALS; import org.apache.spark.mllib.recommendation.MatrixFactorizationModel; import org.apache.spark.mll
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く