隠れマルコフモデル(HMM, Hidden Markov Model)は、内部の観測できない状態を外部で観測できる状態から推定する技術. 内部の状態は確率でどれかの状態に遷移し、遷移した先で決まった確率で観測される状態を出力する.ビタビアルゴリズムで内部の最も考えられる状態遷移を予測し、Forward-Barckwardアルゴリズムで各時刻、各状態の確率を算出し、BaumWelchアルゴリズムでそもそもモデルのパラメータを推定する.
隠れマルコフモデル(HMM, Hidden Markov Model)は、内部の観測できない状態を外部で観測できる状態から推定する技術. 内部の状態は確率でどれかの状態に遷移し、遷移した先で決まった確率で観測される状態を出力する.ビタビアルゴリズムで内部の最も考えられる状態遷移を予測し、Forward-Barckwardアルゴリズムで各時刻、各状態の確率を算出し、BaumWelchアルゴリズムでそもそもモデルのパラメータを推定する.
2019年11月20、21日の2日間、LINE株式会社が主催するエンジニア向け技術カンファレンス「LINE DEVELOPER DAY 2019」が開催されました。1日目は「Engineering」をテーマに、LINEの技術の深堀りを、2日目は「Production」をテーマに、Web開発技術やUI/UX、プロジェクトマネジメントなど、より実践的な内容についてたくさんのプレゼンテーションが行われました。「NAVER ClovaのOCR(光学的文字認識) 」に登壇したのはNAVER OCR Team AI ResearcherのHwalsuk Lee氏。深層学習を用いたOCR技術の仕組みについて語りました。講演資料はこちら LINEのOCR技術の仕組み Hwalsuk Lee氏:みなさま、こんにちは。Hwalsuk Leeと申します。NAVER Clova OCR Teamから参りました。今
2. 1946: ENIAC,高い計算能力 フォン・ノイマン「俺の次に頭の良い奴ができた」 1952: A.Samuelによるチェッカーズプログラム 機械学習と人工知能の歴史 2 1957:Perceptron,ニューラルネットワークの先駆け 第一次ニューラルネットワークブーム 1963:線形サポートベクトルマシン 1980年代:多層パーセプトロン,誤差逆伝搬, 畳み込みネット 第二次ニューラルネットワークブーム 1992: 非線形サポートベクトルマシン (カーネル法) 統計的学習 線形モデルの限界 非凸性の問題 1996: スパース学習 (Lasso) 2003: トピックモデル (LDA) 2012: Supervision (Alex-net) 第三次ニューラルネットワークブーム データの増加 +計算機の強化 1960年代前半: ELIZA(イライザ), 擬似心理療法士 1980年代
陰性のデータは1万件近く集めることができましたが、陽性のデータは100件しか集められませんでした。このように、陽性・陰性というクラス間でデータ数に明らかな偏りがあるケースを不均衡データ(inbalanced data)といいます。 不均衡データの問題点 評価上の問題 これは教科書的な問題で、「精度(Accuracy)が機能しない」という点です。例えば先程の例で陰性がデータ全体の99%なら、ありとあらゆるデータに対して陰性と判定($y=0$)する分類器を作れば、その時点で精度99%を達成してしまいます。 こんなイメージです。機械学習なんていらないですね。笑っちゃうかもしれませんが、実は機械学習を使っても「return 0」みたいな状態に最適化が向かうことがあります(後述)。 今最適化での解の問題はおいておくとして、あくまで評価上の問題なら、Precision, Recall, ROC曲線、F
この記事は 機械学習の数理 Advent Calendar 2018 の 11 日目のための記事です. 間に合いましたか? この記事について McInnes らによる "Uniform Manifold Approximation and Projection (UMAP)" を読み, その解説を試みます. UMAP は t-SNE のようにデータの次元削減とその可視化を提供する手法です. t-SNE よりも可視化の結果がより良く見える (同じクラスタはよりまとまっている) ことや, データを fuzzy topology というこれまで使われてこなかったけど数学的裏付けがあってイケてる方法で表現したぜ! と言ってる点が目を引き, 読んでみようと思ったのですが, 圏論の言葉で書かれており読むのに苦労していたら12月になっていました. 機械学習界隈で圏論に馴染みがあることを仮定するのは無理が
ちゃお・・・† 舞い降り・・・† 先日、前処理大全という本を読んで自分なりに何か書きたいなと思ったので、今回は自然言語処理の前処理とそのついでに素性の作り方をPythonコードとともに列挙したいと思います。必ずしも全部やる必要はないので目的に合わせて適宜使ってください。 前処理大全[データ分析のためのSQL/R/Python実践テクニック] 作者:本橋 智光技術評論社Amazon 前処理 余分な改行やスペースなどを除去 with open(path) as fd: for line in fd: line = line.rstrip() アルファベットの小文字化 text = text.lower() 正規化 (半角/全角変換などなど) import neologdn neologdn.normalize('ハンカクカナ') # => 'ハンカクカナ' neologdn.normalize
目次 (背景)自分の声を結月ゆかりにしたい。前回はあまりクオリティが良くなかったので、手法を変えて質を上げたい。 (手法)声質変換を、低音質変換と高音質化の二段階に分けてそれぞれ学習させた。画像分野で有名なモデルを使った。 (結果)性能が飛躍的に向上し、かなり聞き取れるものになった。 (考察)精度はまだ改善の余地があり、多対多声質変換にすることで精度が向上すると考えられる。今回の結果を論文化したい。 デモ動画 背景多くの人が可愛い女の子になりたいと思っている。 CG技術やモーションキャプチャ技術の向上により、姿は女の子に仮想化できるようになってきた。 しかし、声に関してはまだまだ課題が多い。 声質変換は「遅延」「音質」「複数話者」などの難しい課題がある。 今回は、自分の声を結月ゆかりにするための、低遅延で実現可能な高音質声質変換を目指した。 手法大きく分けて3つの工夫をした。 画像ディープ
[37選]機械学習ライブラリやフレームワークは? 国内AI活用サービスのアーキテクチャを大調査! Webのアーキテクチャ大調査の第二弾は「AI活用サービス」編。プログラミング言語や機械学習のライブラリをはじめ、フレームワークやツールの選定・設計もサービスによって異なります。ぜひ参考にしてください。 2017年4月に掲載したアーキテクチャ大調査の第二弾! 今回は、人工知能(機械学習、深層学習、画像処理など)を活用したWebサービス・アプリを提供しているベンチャーを中心に、36のサービスで使用されているプログラム言語やフレームワーク、その他さまざまな開発ツールなどをヒアリングのうえまとめました。選定理由を記述いただいた12のサービスでは、それもあわせて紹介しています。 前回との違いは、当然ですがTensorFlowやKerasといった機械学習のライブラリが挙げられていること。また、技術領域もH
2. 自己紹介: 1983 東京工業大学修士課程修了 – (米澤明憲先生の下で)論理型言語、自然言語処理 1983-2009 日本IBM東京基礎研究所 – 形式言語理論、構文解析、全文検索、手書き文字認識 – 分散処理(XML、Webサービス) – セキュリティ いわゆるコン ピュータサイ エンス 統計・ 機械学習 2011-2016 統計数理研究所 — 統計モデリング、ビッグデータ解析 2016年4月: 株式会社Preferred Networks — 深層学習 3. 人工知能とは「CSを進化させる営み」 1956-1974 第1次人工知能ブーム • 記号処理 (LISP) • Means-End Analysis • 自然言語処理 1980-1987 第2次人工知能ブーム • 知識表現 (e.g. フレーム) • エキスパートシステム • オントロジー 2008 第3次
9. NIPS’17 Workshop: DL at Supercomputer Scale • 1:30 - 1:50 - Azalia Mirhoseini - “Learning Device Placement” • 1:50 - 2:10 - Gregory Diamos - “Scaling and Sparsity” • 2:10 - 2:30 - Scott Gray - “Small World Network Architectures” • 2:30 - 2:50 - Timothy Lillicrap - “Scalable RL & AlphaGo” • 3:20 - 3:40 - Thorsten Kurth - “Scaling Deep Learning to 15 PetaFlops” • 3:40 - 4:00 - Simon Knowles - “Sc
おつかれさまです. 僕はあまり深層学習に関して記事を書くことはないのですが,ちょっと気になった論文があったので紹介します. [1711.00165] Deep Neural Networks as Gaussian Processes 論文はGoogle Brainの研究者らによるもので,NIPS2017 Bayesian Deep Learning WorkshopICLR2018にacceptされています.実は深層学習をガウス過程(Gaussian process)で構築するのはこの論文が初出ではないのですが,論文ではベイズ学習,深層学習,カーネル法を簡略かつ包括的に説明している内容になっているので非常に参考になります. さて,「深層学習はガウス過程」というのはちょっぴり宣伝的なタイトルにし過ぎてしまったのですが,もう少しだけ正確に論文の要点をまとめると次のようになります. 背景 単一
Deep Learning_ Practice and Trends - final.pdf - Google ドライブ 明けましておめでとうございます、本年もよろしくお願いいたします。新年一発目の記事はただの備忘録です。 こちらは、旧知のバクフーCEO柏野さん(@yutakashino)からご紹介いただいたNIPS2017チュートリアル。 (´-`).。oO( 今年は深層学習にいい加減なことを言う人が近くにいた,らせめてNIPS2017のこのチュートリアルくらいは押さえてよ,言うことにします."Deep Learning: Practice and Trends Tutorial " https://t.co/Q23KftmdXp https://t.co/tK7mnwmgtJ たぶんこの辺りが「常識」でしょうか… )— Yuta Kashino (@yutakashino) 2018年
データ分析ガチ勉強アドベントカレンダー 23日目。 ここまでデータをどういう風に処理したり、どういうタスクをこなしていくかについて勉強してきたが、 一度基礎的な事項に戻ってみたいと思う。基礎だから簡単というわけではない。基礎だからこそ難しく、また本質的な内容。 データ分析で使われている手法などをまとめて集約して、簡単な説明を付け加えていく。 しかし、このあたりの数学*1は苦手なので、なるべく直感的に自分のイメージを書いていく。 われわれが生きている空間や、距離は"正しい"のか ユークリッド空間/ユークリッド距離 点の距離 分布の距離 wasserstein計量 カーネル(再生核ヒルベルト空間) Topological Data Analysis(TDA) 次元削減/Embedding PCA(principal component analysis) t-SNE(t-Distributed
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? これはFujitsu Advent Calendar 2017の18日目の記事です。 掲載内容は富士通グループを代表するものではありません。ただし、これまでの取り組みが評価されて、富士通がQiitaに正式参加することになりました[リンク]。なお、内容の正確性には注意を払っていますが、無保証です。 はじめに この記事では今年発表されたディープラーニング論文(ArXivでの発表時期、発表された国際会議が2017年開催またはジャーナル掲載が2017年のもの)から私が個人的に重要だと思った論文を収集しています。また、2016年末ごろの論文も重要
ABEJAの白川です. 先日カリフォルニアのロングビーチで開かれたNIPS2017へ出席してきました. 論文レベルの技術的な話題については1月にNIPS論文読み会を開催する予定ですので詳細はそちらに譲ることにして,ここではごくごく大雑把なオーバービューを私見偏見交えてご紹介したいと思います.パラレルトラックのため聴講できなかった講演がだいぶありますので,かなり聴講バイアスがかかっていることをご容赦ください.また,新しめの流行にフォーカスしています. Summary 史上最大規模のNIPSだった Bayesian Deep Learningが非常に流行っていた Optimal Transportは実用的な道具 Meta Learningが流行している 非ユークリッド的なDeep Learningに対する注目 史上最大規模のNIPS 今回のNIPSは参加者数7844人,投稿された論文数は324
データ分析ガチ勉強アドベントカレンダー 12日目。 今までは、時間に依存しないデータについて取り扱ってきました。 しかし、世の中のデータは時間に依存したデータも多いのが事実です。 時間に依存しないデータは、その分各データを独立に扱うことができますが、時系列データはそういうわけにはいきません。なので、なかなか難しいのです。 今日は時系列のさわりをまとめて、また、時系列予測のチュートリアルをしていきます。 参考にできるサイト メタ的な記事 pythonの実装も含めて ディープラーニング系 本 読みたい論文(積読) Toeplitz Inverse Covariance-Based Clustering of Multivariate Time Series Data WAVENET: A GENERATIVE MODEL FOR RAW AUDIO 基礎チュートリアル データの用意 定常性のチ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く