タグ

2019年11月9日のブックマーク (19件)

  • 音声 異常検知 - Google 検索

    2024/02/16 · 異音検知とは、正しい状態で動いている機械や生物、モノの音と、異常が発生しているときの音をAIに学習させることで、異常の発見をスムーズにしたり、 ...

  • さぁ、始まる、本気の異音検知器 - Qiita

    ただし、リファレンスデータは元データ1920個に対し、Data Augmentationで 2倍に増やしています。音データのData Augmentationについては、以下の記事を 参考にしてください。 https://qiita.com/cvusk/items/61cdbce80785eaf28349#augmentation テストデータはかなり不均衡ですが、最後にROC曲線で評価するため、不均衡は緩和されます。 データの前処理 今回もDOCにデータを投げますが、その前に、音の生データを周波数データに 変換する必要があります。 選択肢として、スペクトログラムとメルスペクトログラムの二つがあり、今回は スペクトログラムを採用しました。 その理由はこちらの記事で良い結果が出たからです。 学習済モデルの準備 DOCでは、畳み込みニューラルネットワーク(CNN)の学習済モデルを用意しなければ

    さぁ、始まる、本気の異音検知器 - Qiita
  • ディープラーニングを使った画像の異常検知 -論文と実装- - Qiita

    ※こちらはPythonデータ分析勉強会#04の発表資料です。 ディープラーニングを使った画像の異常検知は、GANを使った手法やAutoEncoderを使った手法など多くあります。以前に、Variational Autoencoderを使った画像の異常検知という記事も書きました。 今回紹介する手法は、通常の畳み込みニューラルネットワーク(CNN)を使って、損失関数を工夫することにより、異常検知する手法です。 「Learning Deep Features for One-Class Classification」(以下、DOC) https://arxiv.org/abs/1801.05365 結果からいうと、手法は異常検知精度が良くて、異常個所の可視化も可能であることが分かりました。 概要 この論文は、発表当時にstate-of-the-artを達成したとのことです。 早速実装したいとこ

    ディープラーニングを使った画像の異常検知 -論文と実装- - Qiita
  • 「弱異常検知」と他の異常検知、違いはなにか? - Qiita

    ディープラーニングを使った「画像の異常検知」が流行りつつあります。 通常の異常検知は正常画像のみで学習させます(例えばこちら)。 今回は、運よく少量の異常画像を手に入れたとして、異常画像と正常画像を 組み合わせて異常検知性能を上げる方法を考えてみます。 ※こちらはPythonデータ分析勉強会#08の発表資料です。 結論から 結論からいうと、少量の異常画像とmetric learningを使えば、異常検知性能を上げることが可能です。 精度でいうと、10%弱向上するかもしれません。 AUC ※稿では、「正常画像」と「少量の異常画像」を組み合わせて異常検知する手法を 弱異常検知と呼んでいます。論文のサーベイは全くしておらず、もし、他の呼び方が あれば、教えていただけるとありがたいです。 想定するシーン 製造ラインの画像による異常検知を想定します。 以下のように、データが手元にあったとします。

    「弱異常検知」と他の異常検知、違いはなにか? - Qiita
  • doc 異常検知 - Google 検索

    2019/08/05 · DOCは画期的な手法で、ディープラーニングを特徴抽出器として使うことでデータ(画像)に含まれる特徴をある部分に固めてしまう手法です。 個人的には、「 ...

  • 【まとめ】ディープラーニングを使った異常検知 - Qiita

    ディープラーニングを使った異常検知が進歩していますが、最新情報を追うのが大変です。 ここでは、最新情報をまとめておきます(随時更新)。 稿では、以下の内容を記します。 ディープラーニングを使った異常検知について、簡単に歴史をまとめます。 最新の手法(2019年当時)について、ベンチマークを行います。 歴史 完全に独断と偏見で作った歴史です。 全ての論文は読めていないので、ご了承ください。 【~2017年】オートエンコーダによる異常検知 オートエンコーダによる異常検知 2、3年前はオートエンコーダによる異常検知が主流でした。オートエンコーダでは、元画像と再構築画像との差をとって、その和が大きいとき異常と認識させています。Qiitaの記事でも、オートエンコーダによる異常検知はたくさんありますので、気になる人は探してみてください。 Variational AutoEocoder(VAE)による

    【まとめ】ディープラーニングを使った異常検知 - Qiita
  • がんばる人のための画像検査機 - Qiita

    ※こちらはPythonデータ分析勉強会#05の発表資料です。 タイトルはこちらを使わせていただきました。 私が考えるよりナイスなタイトルを付けてくれました。感謝! 稿は、前回の続きとなっております。 $ 正常品(スコア1.4) \rightarrow 異常品(スコア2以上)$ ※なお、稿に掲載している内容は商用・私用に問わず自由に使っていただいて 結構です。商品化やGithubへの掲載も可能です。ただし、稿の内容に起因する いかなる損害は一切負いかねますので、予めご了承ください。また、商品化の際は 稿の元になった論文のライセンスも確認していただくようお願いします。 特長 今回開発した画像検査機の特長は、以下のとおりです。 コストは1万円以下(従来品は100万円オーバーもある) 異常検知精度は最高峰(論文発表時点でstate-of-the-artです。詳しくは前回の記事をご覧ください

    がんばる人のための画像検査機 - Qiita
  • Triplet lossを使った高速な異常検知 - Qiita

    ちょっとぉ!1ms切っちゃうの??? 多分こんなの機械側が追いつかないと思います。自分で書いてて言うのもあれだけどありえねぇ…… ワイ「これ製造業に売り込みに行こうかな」 ちなみにこれ、訓練も結構速いです。普通に54000枚画像回しているだけですが、20エポック目ぐらいにはほぼ損失が収束します。50エポックも回せば十分です。ColabGPUで2時間もかかりませんでした。 まとめ Triplet lossのオンラインTriple選択を使うとえらく高速な異常検知ができるということが確認できました。面白い論文を紹介してくださった@shinmura0さんどうもありがとうございました。 コード import tensorflow as tf from keras import layers from keras.models import Model import keras.backend as

    Triplet lossを使った高速な異常検知 - Qiita
  • 正常データだけを学習する異常検知(Vol.3)

    生成モデルと識別モデルは対のプロセス まず、抑えておきたいのは生成と識別は対のプロセスということで、「洋服と型紙」「マリンバの移動」「ジオラマ製作」だということです。洋服をもとに型紙が作られ、型紙があれば洋服が作れるのと同じく、マリンバを分解して移動し、会場で組み立てて素敵な演奏を奏でるのと同じく、ジオラマの完成イメージをもとにパーツを作り、パーツを組み立ててジオラマを製作するのと同じなのです。 麻里ちゃんに「なんのこっちゃ」って怒られそうなので、もっとストレートに説明します。図1のようにコンデンサの画像の特徴点を認識して変数化できるのなら、その逆に潜在変数(n次元の特徴)から画像を生成することができるはず。これが生成モデルの基的な考え方になります。 図1:生成モデルと識別モデルは対のプロセス 潜在変数と観測変数 画像を生成する元ネタの潜在変数とはいったいなんでしょうか。これは、一言で言

    正常データだけを学習する異常検知(Vol.3)
  • 【異常検知】Deep Learning for Anomaly Detection: A Survey を読んだ (前編) |

    Deep Learning for Anomaly Detection: A Surveyを読んだので備忘録を残しておきます。 異常検知の分野では Anomaly Detection : A Survey [V Chandola, 2009] が有名なサーベイ論文だと思いますが, 深層学習の台頭でアップデートされた部分も多く, サーベイ論文は良いガイドラインとなりそうです。References が膨大なため前編/後編に分けます。 導入 異常検知と新規性検知 深層異常検知 (Deep anomaly detection; DAD) 深層学習ベースの異常検知の様々な側面 DAD Models 異常検知における DAD アーキテクチャ その他の DAD 手法 DAD の相対的な長所と短所 補足: Anomaly Detection using One-Class Neural Networks

  • one-class classification - Google 検索

    この1クラス分類問題は,. はずれ値探索やノベルティー探索などに使われて. いる. 現在では,1クラス分類問題の手法として SVM. を拡張した One-Class Support Vector ...

  • 異常検知ライブラリを作ってみた - Fire Engine

    今回の記事は、前職消防士でゼロからプログラミングを始めた超未熟者の私が、異常検知ライブラリを作った話です。 なぜ作ったか マインド的背景 消防士を辞めてエンジニア転職してから1年、いろんな技術に触れました。TensorFlow、scikit-learn、Dockerなどなど、必死になって使い方を覚えました。しかしだんだん、「これ、コマンド覚えてるだけで自分に何も技術身についてなくない?」という疑問や焦りが湧いてきて、自分は便利なツールを使いこなせるようになりたいんじゃなくて、いつの日かみんなが使って便利なツールを作る側になりたいんだ、ということに気づきました。そのような思いから今回初めてライブラリを作り、公開してみました。 データサイエンス的背景 世の中は時系列データで溢れています。ビジネスの場において、データの何かしらの変化の兆候を捉えて、いち早く意思決定をしたいという場面がよくありま

    異常検知ライブラリを作ってみた - Fire Engine
  • 特異スペクトル変換法による時系列データの異常検知(Python) - Fire Engine

    はじめに 今回は、特異スペクトル変換法というアルゴリズムをPythonで実装します。このアルゴリズムは時系列データの異常検知に対して非常に強い力を発揮します。また、ハイパーパラメータ(人が調整する必要のあるパラメータ)が少なく、比較的チューニングが容易であることも特徴の一つです。数学の理論については深追いはせず、アルゴリズムの概要と実装まで書いていきたいと思います。 【目次】 はじめに 時系列データについて 時系列データの異常と変化点検知 特異スペクトル変換法の概要 履歴行列とテスト行列 特異値分解 変化度の定義 Pythonによる実装 特異スペクトル変換法の課題 おわりに 時系列データについて 時系列データとは、時間の推移ととともに観測されるデータのことです。昨今、様々な企業がデータ活用を推進していますが、世の中の実務の現場に貯まっていく多くのデータは時系列のデータです。 データ分析にお

    特異スペクトル変換法による時系列データの異常検知(Python) - Fire Engine
  • System Error

  • 【総集編】はてなブックマークの使い方 - ゆとりずむ

    こんにちは、らくからちゃです。 Twitterって『使い始めた日』が表示されますよね。ふと他のサービスもいつから使い始めてたかなーと思い、チェックしてみました。 Twitterを使い始めてから10年以上立ってるのに気がついたので、普段愛用してるサービスをいつから使ってるかまとめると Gmail:2006年10月5日 Amazon:2007年1月9日 はてな:2007年7月7日 年12月15日 Dropbox:2008年10月19日 MoneyForward:2013年6月9日 だった ※はてなは旧垢 — らくからちゃ (@lacucaracha) 2018年3月3日 うーん・・・、みんな長い付き合いだなあ。もはや生活の一部であり、なくなると大変困ります。 でね、思いました。この中では、圧倒的に『はてな』って意味が分かんないですよね。コレはどうやって使うもので、何が嬉しいサービスなのか、うち

    【総集編】はてなブックマークの使い方 - ゆとりずむ
  • はてなブックマークのタグ整理 - DoldoWorkz

    保護・うぷぷぷ どんなページ? 色々な所から見たり聞いたりした事を実際にやってみよう!という私の雑記帳ページです。 PukiWikiを使ってますが私しか編集できません…すみませんです。 ↑ 名前: ムーンドルド MoonDoldo 瑠川 菜月 るかわ なつき 自己紹介: 妖精なので性別はありません、中の人なんていません、色々安心で安全で合法です 性格は天使にも悪魔にもなれるハイブリット 種族: 緑の妖精 エルフだったり、 ニューマンだったり、 なで魔族だったり… 属性: ✓エルフ耳 ✓羽 ✓亜人種 ✓モコモコ ✓ょぅι゛ょ ↑ 使用上の注意 用法・容量を守って正しくお使い下さい 情報が間違ってる事による副作用が見られた場合は服用をお止め下さい ブックマーク迷子防止として必ず移転先リンクを設置しますので、安全・安心してお使いいただけます 成分の半分は優しさで出来ています ぴんぽーん♪ ↑

  • 国土交通省のシェイプ形式データから全都道府県市町村郡区のGeoJsonとTopoJsonを作成。 - Qiita

    全国シェイプ形式データ入手 国土交通省のサイトから全国のデータをダウンロード。 http://nlftp.mlit.go.jp/ksj/gml/datalist/KsjTmplt-N03.html シェイプ形式のデータを使います。 % brew install gdal % which ogr2ogr /usr/local/bin/ogr2ogr % ogr2ogr -f GeoJSON places.json N03-14_140401.shp require 'json' require 'fileutils' class GeoJsonToCity def initialize() @datas = {} Dir.glob('places.json').each do |path| io = File.open(path) str = io.read(nil, '') json

    国土交通省のシェイプ形式データから全都道府県市町村郡区のGeoJsonとTopoJsonを作成。 - Qiita
  • 国土数値情報から行政区界を作成する - Qiita

    この記事とだいたい一緒です。 国土交通省のデータを使って、緯度経度から市区町村までを取り出す ここでは、住所コードからその市区町村の形状を描いてみます。流れとしては以下のようになります。 国土数値情報ダウンロードサービスから都道府県ごとのZIPファイルをダウンロード ZIPを展開し、Shape形式のデータをPostGISに登録 PostGISを使って形状データを市区町村ごとに結合 GeoJSONで出力して描画 まずは平成25年度のデータをダウンロードします。平成26年度のデータが公開されたらそちらを使った方が良いでしょう。クリックを繰り返すだけの単調作業なので、時間があるときに実施しておきます。47都道府県のZIPファイルを、どこか適当なディレクトリにまとめて保管します。 EC2インスタンスを起動 AWS の EC2 で作業します。インスタンスのイメージIDは Amazon Linux A

    国土数値情報から行政区界を作成する - Qiita
  • ディープラーニングさえあれば、競馬で回収率100%を超えられる - Qiita

    pohotos by Ronnie Macdonald 「AIが人間の仕事を奪う」と言われ始めてしばらく経ちますが、今や「幻滅期に入った」なんて言われ方もしています。おかげで僕は仕事を奪われることもなく、毎日満員電車に揺られています。奪う奪う詐欺もいいとこです。 そんなAIの発展にはもう少し時間がかかりそうな一方で、学べる環境は簡単に手に入るようになりました。触るなら、皆が幻滅しかかっている今な気もします。ということで、今更ですがAIの力を知るべく、ディープラーニングに触れてみることにしました。 いろいろ試したのですが、ここでは結果をメインに「無知の状態から勉強しても、ディープラーニングでこれぐらいは楽しめるよ」ということを伝えてみます。プログラムはお手になるようなものではないので、見たい人だけに有料で公開してみます。 Kaggleでディープラーニングのお手並み拝見 最初にディープラーニ

    ディープラーニングさえあれば、競馬で回収率100%を超えられる - Qiita