Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article?
以下で紹介されているSCDVという手法を使って自然言語処理をしていたとき、ちょっと問題に遭遇したのでそれのメモです。 文書ベクトルをお手軽に高い精度で作れるSCDVって実際どうなのか日本語コーパスで実験した(EMNLP2017) 問題 SCDV後の単語ベクトルのうち、以下のような単語がすべて0ベクトルになっていた。(単語は例です。) iPhone 雨 キャッシュ・フロー 調査 SCDVはword2vecで作成した単語の分散表現に対し、その分散表現をGMMでクラスタリングしたときの各単語が各クラスに属する確率とIDF値を用いて、より高次元の分散表現に変換することで意味をより細かく取得できる手法なのですが、上記で挙げたような単語はword2vecで作成した分散表現の際は0ベクトルではありませんでした。 なので、word2vecからSCDVで高次元の分散表現を構築する際に0ベクトルになってしまっ
Alexaスキル開発していますか? 自分の実装したとおりにAlexa様が話してくれるのはとても楽しいのですが、Webやモバイルアプリとはまた異なるインターフェイスなこともあり、開発環境にはやや面倒臭さを感じる今日このごろです。 「スキルからの応答に問題があります」 スキルをLambdaへデプロイ後、動作確認のためにalexa developer consoleから「テスト」を実行していることと思います。 ウェイクワードを発話していざ実装したインテントリクエストを起動すると、 「スキルからの応答に問題があります」 無慈悲なこの文言が帰ってきます。 皆さんはこんなときどうしていますか? むしろ教えてほしいくらいなのですが、自分なりの調査方法を載せておきます。 1. Cloud9でデバッグする これが一番です。 利用料が多少かかりますが、些末なものです。 AWS Cloud9 料金 (ちなみにA
kaggleの中古物件価格予測にチャレンジ 他の人のチュートリアルを見ながら理解したり、チューニングしたりは ある程度できるようになってきたので、自分なりのやり方でkaggleの中古物件価格予測をやってみる 課題のリンクはこちら 初見の感想・方針 変数が多い・・・ 説明変数・・・80! signateのお弁当の需要予測のように、yと各変数をプロットするのは難しい ちょっと変数が多すぎるのでまずは量的変数だけで重回帰分析をやってみようと思う。 チューニングとか質的変数、非線形モデルの利用はまた別の機会に 変数選択 方針:量的変数に絞り、相関係数のヒートマップで関係ありそうな値を算出 データフレームの相関係数算出の書き方は以下 train.corr() [相関係数のヒートマップの書き方] (https://qiita.com/tmp_llc/items/db626c9e331bfdc4857a
オブジェクト検出とやらをTensorflowでやってみたい → APIがある!試してみる エラーに苦しむもなんとか動かせたのでその記録 環境 Windows10 Tensorflow-gpu 1.8.0 Gforce GTX 1080 Anaconda3.5.1.0(Python3.6) ※オフラインで使用 ※Tensorflowの環境は構築済 tensorflow/modelsを入手 以下のURLからzipファイルをダウンロード https://github.com/tensorflow/models zipファイルを適当な場所で解凍(models-masterのフォルダできる) チュートリアルにチャレンジ 以下のURLを参考にしながらチュートリアルにチャレンジ(これだとGoogle Cloudで学習させてますが、今回はローカルで) https://github.com/tensorfl
前提 写真に映った人のポーズ推定をする方法としてOpenPose( https://arxiv.org/abs/1611.08050 )がある。 検出方法はたしか各部(二の腕とかふとももとか)を判別し、それのもっともらしい接続を導くことで全身の推定をするとかだったはず。 別の方法を思いついたのでやってみた。 人の3Dのモデルをどう移動、関節回転させれば画像中の人にうまく重なるかで推定を行う。 こんな感じ。 人物画像を入力し、モデルの中心である骨盤のx,y,zの位置と3軸角度、各部位の3軸角度を推定できればOK。 CNNで人物画像を入力とし、複数の値を同時に回帰で出力し推定する。 CNNにはDenseNet( https://arxiv.org/abs/1608.06993 )を使う。 とりあえずフィージビリティスタディで、3Dモデルの関節をランダムに曲げた画像を作って入力画像とし、回転角度
tensorで与えられた Tensor を、shapeで与えられたTensorShapeに変換する。 tensorの各 dimension の size の和と、shapeの合計が一緒じゃないとエラーになる。 shapeのどれかの要素に-1を与えると、 flat な1次元にする。性質上、1つの index にしか指定できない。 shapeに[]を与えると、スカラーにして返す。 公式Example # tensor 't' is [1, 2, 3, 4, 5, 6, 7, 8, 9] # tensor 't' has shape [9] reshape(t, [3, 3]) ==> [[1, 2, 3], [4, 5, 6], [7, 8, 9]] # tensor 't' is [[[1, 1], [2, 2]], # [[3, 3], [4, 4]]] # tensor 't' has
決定木で分類できるのはいいんだけど、どういう基準で分類していることが多いのか整理したい。そこで、決定木による分類基準を概観する方法を検討しました。 参考にさせていただいたのは scikit-learnの決定木系モデルを視覚化する方法 決定木の詳細を見るのは Graphviz (Graph Visualization Software) で視覚化するといいらしいですが、そこに出力された木を一個一個眺めるのってしんどいじゃないですか。なのでその結果を集計して概観したいなと。 iris のデータをインポート %matplotlib inline import matplotlib.pyplot as plt import pandas as pd import numpy as np import re from sklearn.datasets import load_iris from sk
RefineDetとは Single-Shot Refinement Neural Network for Object Detection ⇒ RefineDet (Shifeng Zhang, Longyin Wen, Xiao Bian, Zhen Lei, Stan Z. Li:2017/11/18) ソースはこちらから。 物体検出アルゴリズムのひとつで、SSDよりやや速度は劣るが、認識精度が高い。 Two-Step Cascaded Regressionという仕組みで、 より小さな物体に対しての認識が可能なようです。 ※以下の記事で日本語でも解説されているので、是非ご一読ください。 リアルタイム物体検出向けニューラルネット、SSD(Single Shot Multi Detector)及びその派生モデルの解説 その他のアルゴリズムと比べるとこんな感じ。 System VOC200
from keras.callbacks import Callback, LearningRateScheduler import numpy as np class LearningRateCallback(Callback): def __init__(self, lr_max, lr_min, lr_max_compression=5, t0=10, tmult=1, trigger_val_acc=0.0, show_lr=True): # Global learning rate max/min self.lr_max = lr_max self.lr_min = lr_min # Max learning rate compression self.lr_max_compression = lr_max_compression # Warm restarts params s
はじめに 本記事は、私が独学で学んだ事をまとめている記事です。 CNN については出来るだけわかりやすく噛み砕いて説明していきます。 詳細を知りたい場合は参考URLを貼っておきましたのでそちらをご覧ください。 想定読者 ・CNN をやってみたい人 ・CNN が何をしているかわからない人 上記にも書いてある通り独学のため、間違えている部分がございましたらご指摘のほどよろしくお願い致します。 CNN (Convolutional Neural Network)とは 主に画像や動画認識に広く使われているニューラルネットワークです。 通常のニューラルネットワークと異なる点は、畳み込み層とプーリング層がある点です。 畳み込み層 畳み込み層とは、特徴を抽出している層になります。 上記画像のように、黒い部分の特徴を残しながら縮小することができます。 このような解像度縮小を行っているのが畳み込み層です。
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 前回 https://qiita.com/mokoenator/items/4d106d682f1b4bc7d0e3 からの続き 途中経過 普通はグラフを書いて過学習や!!とか書くんですかね。 イメージの数とepochでどんなかんじなのか?見てみたくなった。 画像内の黄色がアウター、ピンクがトップス、青がフェイス、明るい緑がパンツ、くらい緑がバッグ いつもの ぱくたそ 350イメージ19epoch 1300イメージ11epoch 1300イメージ52epoch 1300イメージ81epoch イラスト屋1300イメージ81epoch
<!DOCTYPE html> <html> <head> <meta charset="UTF-8" /> <title>Semantic-Segmentation Dataset SVGファイル変換</title> </head> <body onLoad="start()"> <h3>Semantic-Segmentation Dataset SVGファイル変換</h3> <p style="display:inline-block">[<a id="linkImage">Download Image</a>] </p> <p style="display:inline-block">[<a id="linkSeg">Download Segmentation</a>] </p> <input type="file" accept="image/svg+xml" onChange="
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 前回では 機械学習における学習とは一言で言うと **「重みを訓練データから自動的に決定する」**ことです。 前回示した通り、ステップで示すと以下のようになります。 **ステップ①:ある重みからなるニューラルネットワークに訓練データ[入力]**を入力する。 ステップ②:ニューラルネットワークは順伝播を行い、演算結果を出力する。 ステップ③:出力したデータと教師データ(訓練データ[出力])を比較し、損失関数を計算する。 ステップ④:****損失関数を基に逆伝播を行い、勾配を計算する。 ステップ⑤:****勾配方向に重みを少しだけ更新する。
# generate toy data n_s = 1000 n_t = 1000 n_classes = 3 p_s = [0.4, 0.3, 0.3] p_t = [0.4, 0.3, 0.3] mu_s_1 = [0.0, 0.0] sig_s_1 = [0.2, 0.2] mu_s_2 = [0.0, 1.0] sig_s_2 = sig_s_1 mu_s_3 = [0.5, 0.5] sig_s_3 = sig_s_1 # pattern 1 # mu_t_1 = [2.0, 0.5] # sig_t_1 = sig_s_1 # mu_t_2 = [2.0, 1.5] # sig_t_2 = sig_s_1 # mu_t_3 = [2.5, 1.0] # sig_t_3 = sig_s_1 # pattern 2 # mu_t_1 = [0.5, 0.5] # sig_t_1 =
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く