タグ

2020年2月13日のブックマーク (10件)

  • 第2回 PyTorchのテンソル&データ型のチートシート

    連載目次 前回は、PyTorchの核となる部分の説明を行った。今回は、PyTorchの基礎部分といえる「テンソルとデータ型」をチートシート形式で確認する。 なお、連載の第1回~第3回までは続きものとなっている。 全3回の大まかな流れは以下の通りである。 (1)ニューロンのモデル定義 (2)フォワードプロパゲーション(順伝播) (3)バックプロパゲーション(逆伝播)と自動微分(Autograd) (4)PyTorchの基礎: テンソルとデータ型 (5)データセットとデータローダー(DataLoader) (6)ディープニューラルネットのモデル定義 (7)学習/最適化(オプティマイザ) (8)評価/精度検証 このうち、(1)~(3)は前回説明済みである。今回は、(4)を説明する。それではさっそく説明に入ろう。※脚注や図、コードリストの番号は前回からの続き番号としている(第1回~第3回は、切り

    第2回 PyTorchのテンソル&データ型のチートシート
    misshiki
    misshiki 2020/02/13
    “テンソルを作成/変換する基本的なコードのチートシート”
  • Can Artificial Intelligence Generate Corporate Strategy?

    misshiki
    misshiki 2020/02/13
    “この記事では、人工知能を使用した企業戦略の自動化について説明し、不確実性に直面した場合の戦略の自動生成における最近の進歩について見ていきます。”
  • 【異常検知】異常原因を特定する - Qiita

    異常検知は、正常データだけで学習できる製造業で人気のある手法です。 そして、異常検知で異常を検出したとして、「異常原因を特定したい」という 要望もよく聞かれます。 そこで、稿では、複数のセンサが付いた異常検知システムにおいて、 異常が発生した場合に、どのセンサが異常値を示しているのかを特定する 方法を検討します。 ※コード全体はこちらに置きました。 ※こちらはPythonデータ分析勉強会#17の発表資料です。 きっかけ 以前に、こんな内容をツイートしたところ、皆さん興味をお持ちのようでした。 昨日、JFEスチールの製造ラインで異常検知する話しを聞いた。 ・数十個にわたるセンサで常時監視 ・異常検知の制約は、異常のみならず異常原因も特定する ・センサは相関が強いものだけを取り出し、主成分分析だけで異常検知 ・これによりコストと納期を大幅に削減 ー続くー — shinmura0 @ 3/14

    【異常検知】異常原因を特定する - Qiita
    misshiki
    misshiki 2020/02/13
    Permutation Importance“学習用データの説明変数を異常データとシャッフルさせ、影響度を調べます。 ...これにより、 異常値を示しているセンサを特定します。”
  • SVG形式のファビコンを設置しよう

    2022年4月27日 SVG, Webサイト制作 つ・い・に!ファビコンもSVG形式が対応されるようになりました!SVGを使えばこれまで使われてきたPNGなどのビットマップ形式とは違い、拡大縮小しても画質が劣化しません。つまり、過去記事「クリエイティブなファビコンを設置しよう」で紹介したように多くのサイズを用意する必要はありません!やったね!少し工夫すればダークモードにも対応できますよ!さっそくみていきましょう! ↑私が10年以上利用している会計ソフト! SVGファビコン設置方法 1. SVG形式のファビコン用画像を用意 グラフィックツールでファビコンにしたい画像を用意します。サイズは特に気にしなくてもOK。正方形であればどのサイズでもきれいに表示されます。今回はIllustratorを使って32x32pxのものを用意しました。 SVG形式で保存します。 2. HTMLファイルに記述 あと

    SVG形式のファビコンを設置しよう
    misshiki
    misshiki 2020/02/13
    “<link rel="icon" href="images/favicon.svg" type="image/svg+xml"><link rel="icon alternate" href="images/favicon.png" type="image/png">”ってかけばSVG非対応でも行けるのか。
  • 使いやすさを重視したHTMLスクレイピングライブラリを作った - 純粋関数型雑記帳

    TL:DR レポジトリ https://github.com/tanakh/easy-scraper ドキュメント 背景 このところ訳あってRustHTMLからデータを抽出するコードを書いていたのですが、 既存のスクレイピングライブラリが(個人的には)どれもいまいち使いやすくないなあと思っていました。 HTMLから望みのデータを取り出すのはいろいろやり方があるかと思いますが、 ツリーを自力でトラバースするのはさすがにあまりにも面倒です。 近頃人気のライブラリを見てみますと、CSSセレクターで目的のノードを選択して、 その周辺のノードをたどるコードを書いて、 欲しい情報を取り出すという感じのものが多いようです。 RustにもHTMLのDOMツリーをCSSセレクターで検索して見つかったノードをイテレーターで返してくれたりする、 scraperというライブラリがあります。 例えば、<li>要素

    使いやすさを重視したHTMLスクレイピングライブラリを作った - 純粋関数型雑記帳
  • 説明可能なAIとは | Googleの「Explainable AI」に触れながら解説 | Ledge.ai

    サインインした状態で「いいね」を押すと、マイページの 「いいね履歴」に一覧として保存されていくので、 再度読みたくなった時や、あとでじっくり読みたいときに便利です。

    説明可能なAIとは | Googleの「Explainable AI」に触れながら解説 | Ledge.ai
    misshiki
    misshiki 2020/02/13
    “GoogleのExplainable AIでは、Feature Attributionという値によってモデルの予測結果を評価します。Feature Attributionの計算方法には「Integrated Gradients」と「Sampled Shapley」があります。”
  • エムスリーさんと合同で、機械学習勉強会を開催しました - Unipos engineer blog

    機械学習の開発及び、データ分析を行っています長谷川(@Hase8388)です。 先週の2/5にエムスリー株式会社さんの機械学習エンジニアの皆様と、合同で勉強会を開催しました。 イベント後のエムスリーさんの皆様との集合写真 テーマは、最近話題に上がることが多い『MLOps』。機械学習における開発、運用をする上でのハマりどころや、円滑にプロジェクトを進めるための知見についてです。 m3-engineer.connpass.com 弊社からは、自社サービスの一角である、広告プロダクトにおける機械学習をどのように導入したかについて私(長谷川)が、また、同じく自社プロダクトで、従業員同士で感謝と給料を贈り合うHRサービスのUniposでのデータ分析及び、機械学習の活用について同じチームの水谷(@tenajima)が発表しました。 また、エムスリーさんからは、チームリーダーである西場正浩(@m_nis

    エムスリーさんと合同で、機械学習勉強会を開催しました - Unipos engineer blog
    misshiki
    misshiki 2020/02/13
    MLOps勉強会。セッション「gokartを作った話」「機械学習を無理なく広告システムに導入する」「機械学習を無理なく広告システムに導入する」「gokartの運用と課題について」「gokart導入のきっかけと運用の現状」
  • AI on steroids: Much bigger neural nets to come with new hardware, say Bengio, Hinton, and LeCun

    misshiki
    misshiki 2020/02/13
    “トレーニング用ハードウェアよりもさらに興味深いのは、推論用ハードウェア設計。たとえば、拡張現実デバイスで実行したい場合、ミリワットの電力を消費し、1日中バッテリーで動作するチップが必要。”
  • Kaggle上位ランカーの5人に聞いた、2019年面白かったコンペ12選と論文7選 | 宙畑

    2019年も様々なデータサイエンス関連のコンペが実施され、論文が発表されました。その中でも面白かったものはどれか、5人のkagglerの方に直接お伺いしました。 2019年はTellusxSIGNATEで実施された衛星データコンペの解説(第1回・第2回)が、データサイエンティストの方に読んでいただいた宙畑のヒット記事としてランクイン。 では、データサイエンティストの方は他にどのようなコンペや論文に興味を持たれていたのか……と気になった宙畑編集部。 今回、以下5名のKagglerの方に協力いただき、2019年の振り返りとして面白かったコンペと論文、そしてその理由を教えていただきました。 あきやま様(@ak_iyama) jsato様(@synapse_r) Hiroki Yamamoto様(@tereka114) smly様(@smly) ※順不同 ※1名、非公表 Kaggleについては「世

    Kaggle上位ランカーの5人に聞いた、2019年面白かったコンペ12選と論文7選 | 宙畑
    misshiki
    misshiki 2020/02/13
    “今回、以下5名のKagglerの方に協力いただき、2019年の振り返りとして面白かったコンペと論文、そしてその理由を教えていただきました。 ”
  • Deep learning isn’t hard anymore

    In the not-so-distant past, a data science team would need a few things to effectively use deep learning: A novel model architecture, likely designed in-houseAccess to a large, and likely proprietary, data setThe hardware or funds for large-scale model trainingThis had the effect of bottlenecking deep learning, limiting it to the few projects that met those conditions. Over the last couple years,

    Deep learning isn’t hard anymore
    misshiki
    misshiki 2020/02/13
    “デフォルトでは、特定のドメイン内のプロジェクトや特定のリソースのないプロジェクトは実行不可能でした。現在、転移学習により、これらのボトルネックは取り除かれています。”