サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
ドラクエ3
www.thothchildren.com
適当な名言・格言に対して用意したThothnatorのサンプルです.特に強い意図があって選んでいるわけではありません. ハングリーであれ。愚か者であれ, 千の歓びも一つの苦しみに値しない, 一度も失敗したことがない人は何も新しいことに挑戦したことがない人である, 一見して馬鹿げていないアイデアは見込みがない。, 学べば学ぶほど、自分が何も知らなかった事に気づく、気づけば気づくほどまた学びたくなる。
グレンジャー因果検定はある二つの時系列データが与えられたときにその時系列間にグレンジャー因果性があるかどうかを判定する検定. グレンジャー因果は本当の因果関係ではなくあくまで片方のデータ列を使うことでもう片方のデータ列単体でそのデータ列の未来を推定するよりもっと良く推定できる関係.例えば、「太った」ことで時間差で「息切れやすく」なり、さらに時間差で次第に(「太った」が原因で)「昔着れた服が着れなくなった」という事実があったとすると、「体重の時系列」と「息切れ時間の時系列」から将来の「息切れ時間の時系列」を精度よく推定できると考えられるのでここにはグレンジャー因果があると言える. 「息切れやすくなった」と「昔着れた服が着れなくなった」は因果関係はない(どちらも「太った」が原因)がグレンジャー因果性があり、「太った」と「息切れやすくなった」は因果関係もグレンジャー因果性もある. 因果関係がある
CTC Loss(損失関数) (Connectionist Temporal Classification)は、音声認識や時系列データにおいてよく用いられる損失関数で、最終層で出力される値から正解のデータ列になりうる確率を元に計算する損失関数.LSTMやRNNなどの出力を受けて正解文字列の確率を計算する.HMMのように前向き後ろ向きアルゴリズム、動的計画法を元に計算、微分可能であり誤差逆伝播が可能.
CNNを使って画像の文字列を認識してプログラムで扱える文字列に起こすOCRの一般的な例について紹介します.文字列が可変の場合に対応したCNN+LSTM(biLSTM)で構成される基本的なネットワークです. 使用する技術 ・CNN (Convolutional Neural Network) Convolution層を主に用いたニューラルネットワーク ・LSTM(biLSTM) 時系列データや音声データ等において用いられるニューラルネットワーク. RNNの場合もある. ・CTC Loss 画像文字認識や音声認識などで使用される誤差関数.データの中での文字列の位置や長さが可変なものに対応しており、多く使用される. 全体概要 以下の図のように 1. CNNで画像から「画像の左から右に抽出した文字列特徴データ」列を算出 2. 1.で取り出したデータ列をLSTM(biLSTM)に投入して、推定される
シームカービングは画像全体の中で除去しても問題ない部分を縦または横に横切るようにして検出してその部分を除去することで画像サイズを縮小する画像縮小手法.拡大には使用できない.エネルギーを定義してその値が少ないところを見つけ出し、画像の端から端まで進みその軌跡を除去する.
近年はSNSでの画像の使用が多くなり、サイズの問題上それの画像の一部のみ見せる必要があることが多い.そこで各画像の自動的なクリッピングが必要となってきている.ここではTwitterにおいてそれを機械学習で行なっている例を紹介する.
背景型シュリーレン法(BOS, Background-Oriented Schlieren)は液体や気体の濃度勾配を可視化するのに用いられる一般的な手法の一つ.通常のシュリーレン法よりも簡易なシステムにおいて実現することができレンズやナイフエッジなどが不要となっている.太陽や月の光を用いて航空機の周りの衝撃波を可視化することも可能.基準画像との相互相関法によって画像を生成する.
インピーダンス制御はバネマスダンパのモデルを元に仮想物体を想定してインピーダンスを制御する制御方法.力を特定の値に修正をするのみの直接力制御とは異なる間接力制御.外からの力の変化に対して緩やかに変化をする.接触制御.
Kittlerによる二値化フィルタは、背景と前景に二つの異なる正規分布を仮定して平均的に誤り率を下げるように閾値を調整する二値化フィルタ.人手であらかじめパラメータを決める必要はない. Kittlerの方法 0. 任意の閾値を指定する. 1.「背景の正規分布」と「前景の正規分布」を求める. 閾値に従って、背景グループと前景グループのピクセルでまとめる. 各グループの値から、平均と分散と比率を求める. 2. 1.で求めた値から下記の評価値を計算する.\(T\)は閾値,\(w_1,w_2\)は比率,\(\sigma_1,\sigma_2\)は分散. $$J(T) = w_1(T)log(\frac{\sigma_1(T)}{w_1(T)})+w_2(T)log(\frac{\sigma_2(T)}{w_2(T)})$$ 3. 閾値を変えながら2の評価値が最小になる閾値を求める. 大津の方法では
ようこそ! ThothChildrenへ メール ユーザ名 パスワードを設定してください. 以下の入力を行い、認証メールで確認で完了です。
隠れマルコフモデル(HMM, Hidden Markov Model)は、内部の観測できない状態を外部で観測できる状態から推定する技術. 内部の状態は確率でどれかの状態に遷移し、遷移した先で決まった確率で観測される状態を出力する.ビタビアルゴリズムで内部の最も考えられる状態遷移を予測し、Forward-Barckwardアルゴリズムで各時刻、各状態の確率を算出し、BaumWelchアルゴリズムでそもそもモデルのパラメータを推定する.
このページを最初にブックマークしてみませんか?
『欲しい技術/知識をすぐ手に入れる ThothChildren』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く