Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article?
Rで形態素解析をしてみたので、インストールから簡単なデモまで一通り説明します。 Rを使って形態素解析をすると、いろんなソフトを行ったり来たりせずに一貫して、分析が進められるのでなかなか便利です。 #設定した環境 iMac (27-inch, Mid 2010) プロセッサ: 2.8 GHz Intel Core i5 メモリ: 12 GB 1333 MHz DDR3 R : 3.3.0 #準備 ##Homebrewを入れる MacにMeCabを入れるにはいくつか方法がありましたが、 Homebrewで入れるのが比較的簡単だったので、今回はHomebrewでMeCabをインストールします。 まずはHomebrewを入れていない人向けに簡単にHomebrewのインストールからしていきましょう。 以下のサイトに行くと指定のコマンドがあるのでそれをターミナルから実行します。 インストールが完了した
以前mecab-python周りは導入が面倒くさかったのでDockerfileにまとめておこう。 REST APIの部分はこちらを参考にFlaskで実装しました。 ソースはgithubにあります。 ついでにdocker-composeも使ってみたらこれは便利。今回みたいにコンテナ1つだとあまり旨味はないけど。 [2016-10-07 追記] 辞書ファイルの更新について追記。 [2018-03-11 追記] フロントエンドを追加。 Dockerfile 今回の成果物です。 FROM ubuntu:16.04 RUN apt-get update \ && apt-get install python3 python3-pip curl git sudo cron -y \ && apt-get clean \ && rm -rf /var/lib/apt/lists/* WORKDIR /o
TL;DR Qiita記事タイトルの頻出パターン(例:「◯◯で△△を□□する」「◯◯で△△の□□を✗✗する」)を分析してみた 「What」に注目したタイトルと「How」に注目したタイトルに分かれることが判明した 背景 別件でQiitaに記事を投稿しようと思って記事を書いていたら、ふと「Qiitaの記事はどんなタイトルをつけるのが良いんだろう?」と気になってしまったので、記事タイトルの頻出パターンを分析してみることにしました。 実装 コード全文はGistに上げました。 Qiitaのタイトルから頻出パターンを導く 1. 記事タイトルを集めよう Qiita APIで新着記事を取れるだけ取ってきます。titleだけ取り出してファイルへ保存。 for i in $(seq 1 100); do; curl 'http://qiita.com/api/v2/items?per_page=100&pag
tl;dr Task: SSの本文から原作(10作品)を推定(教師あり学習。Classification) Feature Engineering: 本文内の単語 + TF-IDF Classifier: SVM, Logistic Regression, Random Forest Accuracy: 98.5% Jupyter Notebook(GitHub上) 背景 最近RailsやNode.jsを書くサーバエンジニアから、広告配信を最適化する機械学習エンジニアへと転身しつつありまして、日々Courseraのビデオを見たり論文を読んだりしています。 サーバエンジニア時代も当時のスキルを活かすために趣味でアプリを作ったりしていたので、今回は最近身につけた機械学習スキルを使って、趣味レベルで少し遊んでみることにしました。 といっても、すでにやり尽くされているMNIST(手書き文字の数字)
Travis CI には MeCab が入っていない Travis CI の box には最初 MeCab が入っていません。 こういう場合、普通なら .travis.yml の before_install を用いて以下のように MeCab をインストールするでしょう。 しかし、Travis の apt-get で入ってくる MeCab は古い (0.98) ので、例えば natto gem を使うようなアプリケーションが実行できません。 これでは Travis が赤くなって困るので、何とかして最新版 (2014/05/31 現在 0.996) を入れたいところです。 解決策: apt-get を使わず直にインストールする 最新の MeCab ソースコードを公式 Google Code から落としてきて、自家ビルド & インストールすれば良いのです。 基本的に公式インストールガイドの通り
$ git push heroku master Counting objects: 5, done. Delta compression using up to 2 threads. Compressing objects: 100% (5/5), done. Writing objects: 100% (5/5), 562 bytes | 0 bytes/s, done. Total 5 (delta 3), reused 0 (delta 0) remote: Compressing source files... done. remote: Building source: remote: remote: -----> Fetching set buildpack https://github.com/heroku/heroku-buildpack-multi... done re
phpでMecab使ってみた 案件でmecab使うことあったから、phpで扱うためのインスト備忘録です。 ちなみにphpバージョンは5.6です。 index mecabインストール 辞書のインストール php-mecabのインストール mecabインストール mecab本体のインストール方法です 参考URL http://qiita.com/Keech/items/3b51a60c89b9e803b256 手順 ##### rootで作業 cd /usr/local/src/ wget http://mecab.googlecode.com/files/mecab-0.996.tar.gz tar xvf mecab-0.996.tar.gz cd /usr/local/src/mecab-0.996/ ./configure make make check make install
最近話題のMeCabの辞書mecab-ipadic-NEologdを使ってみたいと思いユーザー辞書に追加したので、その方法をまとめます。 mecab-ipadic-NEologdの作者の方がSlideShareでインストール方法を紹介していますが、システム辞書に入るのかユーザー辞書に入るのかを見るにはシェルの中身を読むのが面倒だったので手動でユーザー辞書に追加します。 http://www.slideshare.net/overlast/mecab-ipadicneologdtokyordf-46497035 このブログを参考にしました。(このブログではシステム辞書に登録) https://blog.apar.jp/linux/2796/ あとは、MeCab公式のやり方を参考にしました。 http://taku910.github.io/mecab/dic.html 実際の手順 まずはgi
電子書籍「人工知能ポルノ」出版 人工知能ポルノ: コンピュータが書いたエロい文章 本記事の生成結果を電子書籍にしました。200~400文字程度の文章を100編掲載しています。 ご興味のある方はどうぞ! 自動生成してえ こちらの記事に感銘を受けた。自分も何かやってみたいと思ったが、DeepLearningを用いての自動生成はハードルが高く、まずはマルコフ連鎖を使って自動生成してみようと思った。 【エヴァンゲリオン】アスカっぽいセリフをDeepLearningで自動生成してみる そうだ!AVだ! 自動生成にはデータが必要。自分はアニメがわからんので、エヴァンゲリオンの真似をしてもテンションがあがらない。自分のテンションがあがるものは?...すぐ思いついたのがAVの紹介文だ。 AV紹介文のメリット 120字程度でデータが多そう? タイトルと比べれば生成する文にバリエーションが出そう 人を興奮させ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く