Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article?
目次 イントロ ← 今ココ Scikit-learn・Keras モデルの性能指標・評価方法 データの前処理・データ拡張 早期終了(early stopping) 転移学習 ハイパーパラメータのチューニング モデル圧縮 応用 はじめに 大学3年生のとき、小林雅一『AIの衝撃 人工知能は人類の敵か』という本をなんのきなし読んだことがあります。その本の中で「最先端のAIを実装できるのは世界でも50人くらいの研究者・大学院生くらいだ」といった文章を読み、なんだかすごそうという動機で機械学習に触れ始めました。そのころちょうど、TensorFlow 0.0.5が公開されて騒がれていたことを覚えていますが、当時ディープラーニングとは何かすらまったく分かりませんでした。それから約2年の月日が経ちますが、TensorFlowをはじめとしたフレームワークの普及もあってか「最先端のAI」というものを研究し実装
>>> >>> import pandas as pd >>> >>> data_dict = {'A':[100, 564, 347], 'B':[1200, 853, 139]} >>> df = pd.DataFrame(data_dict) >>> >>> print(type(df)) <class 'pandas.core.frame.DataFrame'> >>> >>> print(df) A B 0 100 1200 1 564 853 2 347 139 >>> >>> print(df['A']) 0 100 1 564 2 347 Name: A, dtype: int64 >>> >>> print(df['B']) 0 1200 1 853 2 139 Name: B, dtype: int64 >>> >>> df['A * B + 2*A'] = df['A
短評 想像の3倍くらい時間をかけてしまいましたが、色々なことが目からウロコで大いに面白かったです。TensorFlowエンジニアの見習い小僧レベルにはなれた気がします。とはいえ、奥が深くて本当に表面的な部分を学習しただけとも感じています。内部的な処理はわからないことだらけですし、応用どころか基本もままならない状態。あとどのくらい時間をかければ、プロと胸を張って言えるレベルになれるかは、正直見当がつかないです・・・一方でそんな状態でもオリジナルのテーマでDeep Learningが実装できるのは、本当にTensorFlowの凄さだと思います。あと、地味にAnacondaも便利で助けられました。 学習目的 現在および直近の仕事でDeep LearningやAIはおろか、機械学習すら使わないですが、「今後を踏まえて何かしなきゃ」という強い想いのもと学習しました。また、純粋に「面白そう」という気持
# Description: # レスポンスをその場で登録出来るようにする script # # Commands: # おぼえて <request> => <response> module.exports = (robot) -> BRAIN_KEY = 'nanako' get_responses = () -> return robot.brain.get(BRAIN_KEY) or {} set_reponse = (matcher, response) -> responses = get_responses() responses[matcher] = response robot.brain.set BRAIN_KEY, responses # 明示的に save しなくても何かのタイミングで保存されるらしい robot.brain.save() return respon
はじめに アマゾンで頻繁に注文するものを毎回サイトにアクセスして注文するのがめんどくさいということはよくあることかと思います。 そこで今回はタイトルの通りボットとしてamazonを使えるsinatraアプリを作成しました。 (余談ですが先日AmazonがSlackを買収するかもしれないというニュースが話題になりましたが、それが実現すればこんなものをamazon自体が提供しそうですね笑) システム構成 システム構成は上記のようになっています。 メッセンジャーから注文コマンドを送ると slackからoutgoing web hook で出したリクエストをローカルのmacに立てたsinatraがngrok経由で受け取る。 sinatraはseleniumを使って注文操作を実行する。 完了したらスクショを撮る スクショと共に注文が完了した通知をslackに返す の流れで注文を処理します。 作ってい
プログラミング言語同士の比較をするとき、ある言語が別の言語より複雑であるということがよく批判の対象になります。たとえば、C++は複雑過ぎる、Scalaは複雑過ぎる(Javaと比較して)、といった意見をよく耳にします。 しかし、実際に客観的な指標に基いて比較してみたことがある人はあまり居ないのではないでしょうか。自分がみる限り、その人がこれまで学んできた言語と比較して、「難しく感じた」ことをもって「複雑だ」という主張をしていることが多いように思います。 しかし、複雑である <=> 難しい(と感じる)も必ずしも正しくありませんし、単純である <=> 簡単であるとも限りません。 このエントリでは、JavaとScalaの構文を比較して、よく言われる「Scalaは複雑である」という主張に反して、「Scalaの方が単純である」ということが言える(ただし、Scalaの方が簡単であることは意味しない)とい
MeCabとは、形態素解析をするためのライブラリです。 NEologdとは、Web上から得た新語に対応しており、毎週更新されるMeCab用のシステム辞書です。 この二つで最新の単語に対応した形態素解析ができます! 「画像での上のコマンド」がデフォルトの辞書、「画像での下のコマンド」がNEologdです。 NEologdでは、「ポケモンGO」「位置情報」などが固有名詞として取得できている。 インストール確認環境 ・さくらVPSのCentOS6 ・AWSEc2のCentOS7 MeCabのインストール 公式サイト http://taku910.github.io/mecab/ ダウンロードするもの まずは公式サイトに行き、 ・Sourceからmecab-0.996.tar.gz ・IPA 辞書から辞書 の2つをダウンロードします。 2つをサーバでインストールする ・mecab-0.996.ta
環境:OSX Yosemite 10.10.3 Python : 2.7 機械学習のライブラリscikit-learnを利用しようとしたとき $ pip install -U scikit-learn (省略) Successfully installed sklearn Cleaning up... で見事インストール成功かとおもいきや $ python Python 2.7.6 (default, Sep 9 2014, 15:04:36) [GCC 4.2.1 Compatible Apple LLVM 6.0 (clang-600.0.39)] on darwin Type "help", "copyright", "credits" or "license" for more information. >>> from sklearn import datasets Traceb
やったこと 流行りのディープラーニングを使って、画像の物体検出を行いました。 今回は、YOLOv2というアルゴリズムを使って物体検出を行なっています。 YOLO(You Only Look Once)とは 畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を用いた物体検出アルゴリズムです。現時点ではv1とv2が存在します。 YOLO(YOLOv1) 論文はこちら(2015年)。 従来とは異なり、画像をバウンディングボックスで分割してクラス分類を行なっている。 we frame object detection as a regression problem to spatially separated bounding boxes and associated class probabilities. 結果として、45FPSの処理速度を実現し
from __future__ import print_function import time start_time = time.time() import keras from keras.datasets import mnist from keras.models import Sequential from keras.layers import Dense, Dropout from keras.optimizers import RMSprop batch_size = 128 num_classes = 10 epochs = 20 # the data, shuffled and split between train and test sets (x_train, y_train), (x_test, y_test) = mnist.load_data() x_tr
RasPiでKeras/TensorFlowを動かすまでの試行錯誤をメモしておく。使った環境は以下の通り。 RaspberryPi 3 Model B Raspbian August 2017 16GB SD card(いろいろツールを入れたので8GBでは足りなくなった) まずはTensorFlowを入れる TensorFlow公式RasPiサンプルはビルドおそい 最初にTensorFlow公式のRasPiサンプルを試したのだけど、C++のコードをゼロからビルドするので、非力なRasPiでは何時間待っても終わらない...ってグチをつぶやいたら、TensorFlowチームのPete Wardenが絶妙のタイミングでブログ記事Cross-compiling TensorFlow for the Raspberry Piを書いていて、リンクをシェアしてくれた。この記事では、あらかじめビルド済みの
Python向けのチャットボットフレームワークでデファクトスタンダード的なものが見当たらなかったので、作ってみました。 Minette for Python https://github.com/uezo/minette-python 5つの特長 1. すぐ動く pipコマンドでインストールして、データベースやアプリケーションサーバの設定などすることなく、わずか数行のコードを記述すればおうむ返しボットが動作します。 2. あらゆるチャネルを統一されたアーキテクチャで LINEとClova用のアダプターを同梱。初期化コードを追加するだけですぐにLINE BOTやClovaスキルを開発することができます。また、ユーザー実装部分はチャネルの違いに影響を受けないため、どちらも同じ手順で開発を進めることができます。 3. コンテキスト・ユーザー管理、タスクスケジューラを標準装備 文脈を意識した対話シ
サマリ CNN(ResNet)によるギター画像の分類で99%超の精度を達成した。 ImageNetの一般画像分類モデルを元にした転移学習による学習の高速化・高精度化・汎化性能の向上を確認した。 はじめに 本記事は、アラフォー・エンジニアによる、夏休みの自由研究の記録です。 CNNを使った、ギター画像の分類にチャレンジしました。 技術的に目新しい話はあまりないですが、ギターを題材にした事例は意外にもなさそうだったので、なんとなく結果を公開します。 環境 自宅のパソコンです。 データセットの準備 データセットは、Web検索からスクレイピングにより調達し、手動でちまちまとラベルを修正しました。ラベルは以下の13種です。 Stratocaster Telecaster Jazzmaster Jaguar Mustang LesPaul SG FlyingV Explorer Firebird Se
※こちらの記事は、プロスタ編集部が現在大変人気の高いPythonの文法記事を公開することで、皆様の学習にお役に立ちたい意図で投稿しております。 参考サイト:【Python入門】ライブラリmatplotlibの基本的な使い方 【Python入門】ライブラリmatplotlibの基本的な使い方 Pythonではnumpyやscipyといったライブラリを使うことで科学計算を簡単に行うことができますが、そういった計算結果をグラフなどで図表できると分かりやすいですよね。そんな時に便利なのがmatplotlibというライブラリです。matplotlibを使えばPythonでデータをグラフにプロットできるようになります。numpy、scipyと組み合わせることで、Pythonだけでデータの読み込み・加工・計算、そしてプロットが行えます。 今回はmatplotlibの基本的な使い方について説明します。 m
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く