タグ

2020年11月20日のブックマーク (10件)

  • Conformer:Transformerを音声認識に応用!? GoogleによるTransformer×CNNが凄すぎる!!

    3つの要点 ✔️ TransformerとCNNを組み合わせたモデル,Conformerを音声認識に応用 ✔️ 畳み込みモジュールがConformerにおいて最も重要であることがわかった ✔️ 既存の音声認識研究の中でも最高の精度を確認 Conformer: Convolution-augmented Transformer for Speech Recognition written by Anmol Gulati, James Qin, Chung-Cheng Chiu, Niki Parmar, Yu Zhang, Jiahui Yu, Wei Han, Shibo Wang, Zhengdong Zhang, Yonghui Wu, Ruoming Pang (Submitted on 16 May 2020) Comments: Accepted at Interspeech20

    Conformer:Transformerを音声認識に応用!? GoogleによるTransformer×CNNが凄すぎる!!
    misshiki
    misshiki 2020/11/20
    “TransformerとCNNを組み合わせたモデル,Conformerを音声認識に応用”
  • 「クリリンのことかーっ!」は怒り36%、嫌悪21%──声から感情を検出するAI、ユーザーローカルが無償公開

    ユーザーローカルは11月19日、AIが人間の声を分析し、その中に含まれる感情を7種類に分類するサービスを無償公開した。同社が実験でアニメのせりふを分析したところ、「ドラゴンボール」に登場する孫悟空の「クリリンのことかーっ!」は怒りが36.8%、嫌悪が21.3%だったという。 感情の度合いを数値化したり、グラフ化したりできる。まずはPCブラウザ(Google Chrome、Firefox、Microsoft Edge)向けの専用サイトで提供し、今後はWeb APIのリリースも検討する。 検出できる感情は「平穏」「幸福」「怒り」「悲しみ」「恐怖」「嫌悪」「驚き」。利用者が専用サイトで声を録音するか、オーディオファイル(MP3・WAV)をアップロードすると、AIが音声を分析。これらの7種類に分類し、その度合いを数値化する。 アニメのせりふを使った他の実験では、「鬼滅の刃」に登場する我善逸の「雷

    「クリリンのことかーっ!」は怒り36%、嫌悪21%──声から感情を検出するAI、ユーザーローカルが無償公開
    misshiki
    misshiki 2020/11/20
    事例。音声から感情の度合いを数値化&グラフ化。“ 検出できる感情は「平穏」「幸福」「怒り」「悲しみ」「恐怖」「嫌悪」「驚き」。”Web版で提供。Web API化も検討中。
  • Here's how we're using AI to help detect misinformation

    misshiki
    misshiki 2020/11/20
    FacebookではSimSearchNet++を開発。“自己教師あり学習を使用してトレーニングされた改良型画像マッチングモデル”で、加工された画像でもマッチングできるので、有害なコンテンツを検出するのに役立つ。
  • 機械学習でアガベを判定してみた。ノーコードで。 - Qiita

    はじめに 皆さん植物は好きですか?僕は大好きです。 特にアガベという多肉植物が好きで、好きが講じて海外からアガベを小口輸入してオリジナル鉢と合わせて販売しています。D2Cによりinstagramさえあれば誰だってブランドを立ち上げられるいい時代になりました。 足元に転がった大量のアガベの写真を整理したい さて業の傍らで運営している中で困っていることの一つがストックしているアガベの管理です。中でも売れ筋なのがコンパクトで型が良い台湾アガベ。ただ台湾のチタノタ系は独自の名称がついた株が多数存在していてしかも形がよく似ているんです。例えば下の写真 左はみんな大好き『agave titanota "白鯨(はくげい)"』。右がみんなの憧れ『agave titanota "Caesar(シーザー)"』。見分けられますか? うちの家族に見せたところ全然違いが分からないとのこと 見た目が似ていてややこし

    機械学習でアガベを判定してみた。ノーコードで。 - Qiita
  • 機械学習処理ベンチマークMLPerf HPCにて最高レベルの速度を達成~日本のスーパーコンピュータシステムで計測したアプリケーション性能が上位を独占 | 理化学研究所 計算科学研究センター(R-CCS)

    サイト内検索 検索 お問い合わせ 閉じる トップページ イベント・広報 お知らせ一覧 機械学習処理ベンチマークMLPerf HPCにて最高レベルの速度を達成~日のスーパーコンピュータシステムで計測したアプリケーション性能が上位を独占 国立研究開発法人産業技術総合研究所が運用するスーパーコンピュータシステム「AI橋渡しクラウド基盤」(以下、「ABCI」)の約半分の規模と、理化学研究所と富士通株式会社が開発中のスーパーコンピュータ「富岳」の約10分の1の規模で計測した結果が、スーパーコンピュータ規模の処理を必要とする大規模機械学習処理のベンチマークであるMLPerf HPCにおいて、それぞれ最高レベルの性能を達成し、上位を独占しました。詳細は下記をご覧ください。 機械学習処理ベンチマークMLPerf HPCにて最高レベルの速度を達成 日のスーパーコンピュータシステムで計測したアプリケーショ

    機械学習処理ベンチマークMLPerf HPCにて最高レベルの速度を達成~日本のスーパーコンピュータシステムで計測したアプリケーション性能が上位を独占 | 理化学研究所 計算科学研究センター(R-CCS)
    misshiki
    misshiki 2020/11/20
    上位を独占らしいけど、具体的に書いてないのでよく分からない。詳細のリンク先も分かりにくい。「ABCI(AI橋渡しクラウド基盤)」と「富岳」が1位と2位ということなのかな。
  • ウェブ最適化ではじめる機械学習

    ウェブサービスの開発に携わるかぎり、ユーザにより良い体験を提供することは無視できない命題です。書は、ウェブサービスを成長させることを目的に、ユーザの行動を定量的に評価し、改善する手法を学ぶ書籍です。 シンプルなA/B テストを第一歩に、線形モデルの導入、メタヒューリスティクス、バンディットアルゴリズム、ベイズ最適化と、機械学習の知識を紹介しながら、ウェブサイトを最適化するという現実的な問題を解くための数理的な手法を解説します。 Pythonによるサンプルコードと、グラフィカルな図版で表現された数学的なモデルを組み合わせ、機械学習と統計学の基礎を丁寧に解説しています。ウェブ最適化の手法を学びたい、機械学習の基礎を知りたい読者に最適の1冊です。 内容見 まえがき 2章の冒頭部分 関連ファイル 1章のサンプルコード 2章のサンプルコード 3章のサンプルコード 4章のサンプルコード 5章のサン

    ウェブ最適化ではじめる機械学習
    misshiki
    misshiki 2020/11/20
    新刊“――A/Bテスト、メタヒューリスティクス、バンディットアルゴリズムからベイズ最適化まで”
  • Using Model Card Toolkit for TF Model Transparency

    https://blog.tensorflow.org/2020/11/using-model-card-toolkit-for-tf-model-transparency.html https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEg9XlN0Sdl_4H-b7lNfiEG6gOUxexfxPngBlHaEoqs6MRHFHo7OlWI0NRd013BJjLVZoJZNf3W3jucl6PIn2yPLfNIrm8C5ggNDvOIgMgm1kBbGArRiPR05mxkG_-8SPFA0KDsnP94PGa0/s0/MCTop+%25281%2529.png November 18, 2020 — Posted by Karan Shukla, Software Engineer, Google Research Mac

    Using Model Card Toolkit for TF Model Transparency
    misshiki
    misshiki 2020/11/20
    TensorFlow機械学習モデルの透明性を実現するためのモデルカードを生成できるModel Card Toolkit (MCT) の使用方法。
  • 捨ててしまうのはもったいない!BERTの出力を組み合わせて文ベクトルを作るSBERT-WK

    3つの要点 ✔️ BERT の埋め込み表現が各層で異なる情報を捉えていることを実証 ✔️ 各層の情報を統合して文ベクトルを構成する手法を提案 ✔️ 提案手法で主要なタスクでの精度向上を達成 SBERT-WK: A Sentence Embedding Method by Dissecting BERT-based Word Models written by Bin Wang, C.-C. Jay Kuo (Submitted on 16 Feb 2020 (v1), last revised 1 Jun 2020 (this version, v2)) Comments: Accepted at arXiv Subjects: Computation and Language (cs.CL); Machine Learning (cs.LG); Multimedia (cs.MM) Of

    捨ててしまうのはもったいない!BERTの出力を組み合わせて文ベクトルを作るSBERT-WK
    misshiki
    misshiki 2020/11/20
    “BERT が捉えている情報を上手く用いることによって、SBERT をさらに改良した SBERT-WK というモデルをご紹介”
  • ROC曲線を直感的に理解する

    1. この記事について この記事は、機械学習で出てくるROC曲線を、直感的に理解することを目的とするものです。ROC曲線の一般的な定義や説明自体はインターネット上に溢れているので、ここではそれとは少し違った説明をします。 2. ROC曲線とAUC ROC曲線は、機械学習における二値分類タスクのモデル性能の評価に用いられるものです。モデル出力(予測値)が連続的である場合に用います。 ROC曲線は、予測値と真のターゲットの対応から描くことができ、例えば下図のようなイメージです。 ROC曲線が何者かを述べる前に、これをどのように評価に用いるかを簡単に説明します。 ROC曲線の下側の面積 (AUC: Area Under the Curve) は、予測値の大きい順にデータを並べ変えたとき、1が上に固まっている(0が下に固まっている)ほど大きくなるという性質があります。下図の2つのケースを比較すると

    ROC曲線を直感的に理解する
    misshiki
    misshiki 2020/11/20
    機械学習における二値分類タスクのモデル性能の評価に用いられる“ROC曲線”を専門用語をできるだけ出さずに図解。
  • [解決!Python]range関数を使いこなすには

    # 0~9の範囲の連番 r = range(10) print(list(r))  # [0, 1, 2, 3, 4, 5, 6, 7, 8, 9] # 0~9の範囲の連番 r = range(0, 10) print(list(r))  # [0, 1, 2, 3, 4, 5, 6, 7, 8, 9] # 7~11の範囲の連番 r = range(7, 12) print(list(r))  # [7, 8, 9, 10, 11] # 初期値1、最終値9、差分2の等差数列:1、3、5、7、9 r = range(1, 10, 2) print(list(r))  # [1, 3, 5, 7, 9] # 降順の数列(初期値9、最終値0、差分-1):9、8、7、6、5、4、3、2、1、0 r = range(9, -1, -1) print(list(r))  # [9, 8, 7, 6,

    [解決!Python]range関数を使いこなすには
    misshiki
    misshiki 2020/11/20
    “range関数を使って連番や特定の初期値/最終値/差分で計算される等差数列を得る方法、for文との組み合わせ例、rangeオブジェクトなどについて”