This document summarizes a research paper on modeling long-range dependencies in sequence data using structured state space models and deep learning. The proposed S4 model (1) derives recurrent and convolutional representations of state space models, (2) improves long-term memory using HiPPO matrices, and (3) efficiently computes state space model convolution kernels. Experiments show S4 outperfor
以前の記事でオートエンコーダによる異常検知は古い!と書いてしまいましたが、 最近は進化しているようです。 今回ご紹介する論文は、損失関数を工夫することで通常のオートエンコーダよりも 異常検知能力を上げる手法です。 ※本稿の図は論文(Improving Unsupervised Defect Segmentation by Applying Structural Similarity To Autoencoders)より引用しています。 論文の概要 通常のオートエンコーダによる異常検知は、微小な異常は捉えられない。 そこで、一枚の画像に対し小さな枠を用意して「輝度」、「コントラスト」、「構造情報」の類似度を計算して異常検知を行う。 本手法を使うことで、通常のオートエンコーダやVAEの異常検知と比べて、AUCで大幅な向上が見られた。 異常部分の可視化についても、通常のオートエンコーダよりも優れ
Kerasで複数の情報を入力して、途中で結合する方法を紹介します。 この方法は、例えば以下のように画像とテキストを使って予測モデルを作る場合などに有効です。リンク先参考。 ImageDataGeneratorを使いつつ統合する方法は、記事「KerasのImageDataGeneratorを使いつつ複数Input統合モデル」を参照ください。 処理概要 以前、記事「【Keras入門(1)】単純なディープラーニングモデル定義」で紹介した以下の図の配列dataを2つに分解して統合するモデルにしてみます。 処理プログラム プログラム全体はGitHubを参照ください。 ※なぜか直接GitHubで見られずに、nbviewerなら参照できました。nbviewerにhttps://github.com/YoheiFukuhara/keras-for-beginner/blob/master/Keras09_
はじめに Learning deep representations by mutual information estimation and maximizationを読んだのでメモ.Abstractの最後の1文で"DIM opens new avenues for unsupervised learn- ing of representations and is an important step towards flexible formulations of representation-learning objectives catered towards specific end-goals."といっている非常に力強い論文. 気持ち 現状の表現学習はreconstruction lossを使った自己符号化器で行われるものが多いが,それは入力のデータに依存した目的関数になっている
この記事の抜粋したコードの完全版はGitHubでご覧いただけます。 また、この記事で作成したモデルはTwitterのスタバ警察botで実際に試せるので、ご興味があれば適当な画像を「スタバなう」という文字列と一緒にリプライしてみてください。 こういうtweetが機械学習界隈からの怒りを買ってます(笑) https://t.co/COV1IHyh03 — Yuki Suga (@ysuga) July 26, 2019 というツイートからも分かるように、現在のスタバなうツイートは完全に関係ない画像で蹂躙されており、実際にスタバで撮影された画像は全体の24%しかありません。 逆にここまで来ると、残り76%の画像に着目した方が良いのではという気すらしてきます。 というわけで、「スタバなうと言いながら投稿される関係ない画像」の筆頭であるラーメンの分類器を、スタバなうツイートだけで作れるかどうか試して
チップメーカーのエヌビディアは、GPUチップ上で動作する言語理解の人工知能(AI)プログラムの開発を支援するソフトウェアを発表した。機械学習モデルの訓練および訓練済みモデルの実行をスピードアップできるだけでなく、より大きな言語モデルを訓練することが可能となるという。 by Will Knight2019.08.19 83 41 17 2 人工知能(AI)はこの10年間で目覚ましい進歩を遂げたが、言語理解についてはまだお粗末としか言いようがない。試しにちょっとアレクサと機知に富んだ冗談を言い合ってみれば分かる。 数多くのAIアルゴリズムを実行しているコンピューターチップの製造メーカーであるエヌビディアは、この状況はもうすぐ変わると考えている。爆発寸前である言語理解の分野で利益を得ようと狙っているのだ。 エヌビディアは8月13日、同社製ハードウェア上でより洗練された方法で言語を扱うAIプログラ
Metric Learning について Metric Learning は、データの教師情報を基にデータ間の距離や類似度などの Metric を学習する手法です。日本語で手軽に読める記事だと、*1, *2 などが詳しいです。 このたび、phalanx さんの tweet *3で、 Metric Learning の基礎的なアルゴリズムのいくつかが scikit-learn-contrib *4に搭載されていると知りました。 本記事では、scikit-learn-contrib の metric-learn パッケージを用いて、簡単にMetric Learning を試します。 インストール README や PyPI *5 に記載のある通り、次の通りにインストールします。 pip install metric-learn 利用するデータセット 今回は、sklearn に含まれている lo
7月31日からパシフィコ横浜で開催されている「Rakuten Optimism 2019」にて、楽天ペイの新機能を体験コーナーが展示された。同イベントの体験型イベント&フェスティバル「フューチャー・ワールド」にある楽天ペイブースでは、今後同サービスに導入される顔認証決済機能やモバイルオーダーの仕組みを体験できる。なお、モバイルオーダーに関する展示を楽天社外に披露するのは今回が初となる。 顔認証を利用することでより素早い決済へ 楽天ペイが開発に取り組んでいる顔認証決済では、スマートフォンのアプリからあらかじめ自身の顔を登録し、4桁のPINコードを登録しておく。利用者は支払いの際に自身のスマートフォンを取り出して決済画面を提示する必要はなく、店舗側が用意するタブレット端末などで認証を行えばよい。
人工知能(AI)はいつか人間の感情を私たちよりもうまく伝えられるようになるかもしれない。コロラド大学とデューク大学の研究者によって開発されたニューラルネットワークモデル「EmoNet」は、画像を11種類の感情カテゴリーに正確に分類することに成功した。 この研究に関わった研究者の1人であるPhilip Kragel氏によると、ニューラルネットワークは、一連のフィルターを学習することによって、入力信号を興味深い出力にマッピングすることを学習するコンピューターモデルだという。例えば、バナナを検出するように訓練されたネットワークは、形や色など、バナナに固有の特徴を学習する。 EmoNetの開発に使われたデータベースには、不安や関心、悲しみ、驚きなど、27種類の感情カテゴリーを表す2185本の動画が含まれていた。このモデルは「切望」「性的欲求」「恐怖」に関連する画像を信頼性の高い間隔で区別できたが、
警察庁は2019年7月19日までに、自動運転レベル3(条件付き運転自動化)が改正道路交通法の施行で解禁されるのを前に、自動運転に関する違反行為の点数や反則金について示した「改正道交法施行令案」を公表した。 改正道路交通法では、自動運転システムの使用には走行データを正確に記録できることなどが条件とされているが、こうした条件を満たさずに自動運転システムを使用した場合、普通車では9000円、大型車では1万2000円の反則金を科すというもの。違反点数は2点としている。 警察庁が公表したこの改正道交法施行令案は7月22日からパブリックコメント(意見公募)を開始し、広く意見を募る。報道などによれば、この自動運転に関する改正内容の施行は来年5月を目指しているという。
Mission: Expression » 2019 Examples to Compare OCR Services: Amazon Textract/Rekognition vs Google Vision vs Microsoft Cognitive Services 2019 Examples to Compare OCR Services: Amazon Textract/Rekognition vs Google Vision vs Microsoft Cognitive Services linkIntroductionWe're building a note app that will surface images+documents in full-text search, so it needs to do OCR as well as possible. Prefe
様々な分野でのAI活用の今を紹介(ピックアップ) この後、医療、災害対策、環境保護、農業支援、アクセシビリティ、文化保存活動と、バラエティに富む9つのAIプロジェクトを、各スピーカーが紹介。 Google Healthのプロダクトマネジャー、リリー・ペン博士は、肺がん、乳がん、糖尿病性網膜症の早期発見プロジェクトを紹介。世界のいくつかの病院と提携して機械学習システムを訓練し、精度を高めています。 環境保護については、Google AIのプロダクトマネジャー、ジュリー・カットー氏が、米国海洋大気庁(NOAA)と協力して絶滅が心配されているザトウクジラの生息地域を可視化したプロジェクトを紹介。「歌うクジラ」として知られるザトウクジラの歌の録音(人が聞いたら19年かかる量)をAIで解析したんだそうです。 もう1つ、環境保護で登壇したのはGoogleのAI技術を使っているNPO、Rainfores
グーグルは、外部の請負業者がユーザーの音声データを聞いている事実について、同社のプライバシーポリシーのページで言及していない。 ベルギーの公共放送局のVRT NWSは7月10日、スマートスピーカーの「グーグルホーム(Google Home)」をはじめとするグーグル機器に組み込まれている人工知能(AI)アシスタント機能「グーグル・アシスタント」によって録音された音声データが数千件漏洩したと報じた。これらの音声データは、ソフトウェアの正確さを向上させるための取り組みの一環として、音声データをテキストに書き起こす請負業者と共有されていた。 音声データには、ユーザーの住所から寝室での会話、暴力を受けている悲痛な女性の声といった、極めてプライベートな会話の断片が含まれている。これらの音声の多くは、スマートスピーカーが「起動ワード」を誤って識別し、うっかり録音されてしまったものだ。4月の記事で述べたよ
音声コンピューティングと人工知能(AI)の調査を手がけるVoicebot.aiで、Bret Kinsella氏らの研究チームは、Chevrolet、Adidas、Starbucksといった特定のブランドに関する質問に最良の答えを返す音声アシスタントを調査しようと考えた。 そこで同チームは、4社の音声アシスタントに対して多数の質問を行った。内容は多岐にわたり、「最も長持ちする口紅は?」といったおおまかな質問から、「(米航空会社)JetBlueへの連絡方法は?」のような具体的な質問まで、計4000問以上を投げかけた。 結果は明快だった。最も優秀だったのは「Googleアシスタント」で、ほかを寄せつけなかった。米国時間7月9日に発表された新しい調査レポートによると、正答率はスマートフォンのGoogleアシスタントが92%、スマートスピーカー「Google Home」のGoogleアシスタントが8
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く