並び順

ブックマーク数

期間指定

  • から
  • まで

161 - 200 件 / 207件

新着順 人気順

パーセプトロンの検索結果161 - 200 件 / 207件

  • 初めての機械学習理論 - Y's note

    はじめての機械学習 作者: 小高知宏出版社/メーカー: オーム社発売日: 2011/04/22メディア: 単行本(ソフトカバー)購入: 6人 クリック: 99回この商品を含むブログ (9件) を見る はじめての機械学習 はじめての機械学習という本を読んで学んだことをまとめます。自分で理解した言葉としてまとめています。原文とは異なる可能性があります。またその他自分で勉強した内容についても紹介します。 機械学習とは パラメータ調整による学習 帰納的学習 教示的学習 進化的手法による規則学習 ニューラルネット 機械学習ライブラリ その他用語 機械学習とは 「生物」以外の「機械」が学習を行う事。 過去のデータやとある局面のデータを学習して新たな局面に当てはまる有効な知識構成を「汎化」と呼ぶ。 機械学習はゲーム研究での適用が始まりで、人口知能と人間の対戦だった。 評価関数の評価値が高くなるようなパラ

      初めての機械学習理論 - Y's note
    • サポートベクターマシン - Wikipedia

      サポートベクターマシン(英: support-vector machine, SVM)は、教師あり学習を用いるパターン認識モデルの1つである。分類や回帰へ適用できる。1963年にウラジミール・ヴァプニク(英語版)とAlexey Ya. Chervonenkisが線形サポートベクターマシンを発表し[1]、1992年にBernhard E. Boser、Isabelle M. Guyon、ウラジミール・ヴァプニクが非線形へと拡張した。 サポートベクターマシンは、現在知られている手法の中でも認識性能が優れた学習モデルの1つである。サポートベクターマシンが優れた認識性能を発揮することができる理由は、未学習データに対して高い識別性能を得るための工夫があるためである。 基本的な考え方[編集] サポートベクターマシンは、線形入力素子を利用して2クラスのパターン識別器を構成する手法である。訓練サンプルから

        サポートベクターマシン - Wikipedia
      • 人工知能学会誌 連載解説「Deep Learning(深層学習)」

        人工知能学会監修『深層学習 — Deep Learning』出版の案内 本連載解説の記事を加筆・再編集した書籍『深層学習 — Deep Learning』を近代科学社から2015年10月31日に出版しました. 監修:人工知能学会 著者:麻生 英樹,安田 宗樹,前田 新一,岡野原 大輔,岡谷 貴之,久保 陽太郎,ボレガラ・ダヌシカ 編集:神嶌 敏弘 出版:近代科学社 出版社のページ サポートページ 人工知能学会誌 連載解説「Deep Learning(深層学習)」 現在では記事は無料で公開されています. 安田 宗樹「ディープボルツマンマシン入門 : ボルツマンマシン学習の基礎」人工知能学会誌 Vol.28 No.3 (2013年5月) 麻生 英樹「多層ニューラルネットワークによる深層表現の学習」人工知能学会誌 Vol.28 No.4 (2013年7月) 岡野原 大輔「大規模Deep Lear

        • 【連載第1回】ニューラルネットの歩んだ道、ディープラーニングの登場で全てが変わった - 日経BigData

          ディープラーニングのビジネスへの活用の可能性を探る。初回はディープラーニングの登場がどんな意味で大事件だったのかを解説する。 機械学習、ニューラルネット、ディープラーニングといった言葉の意味を整理することから始めよう。機械学習は人工知能の一分野で、データの背景にある傾向や法則を探り、現象の解析や予測をすることを目標としている。人間がルールを明示的に与えるのではなく、データから機械自身に法則を学習させるのが特徴だ。ルールで記述しきれない複雑な現象や、季節や時間などで傾向が変わる現象の解析に強みを発揮する。 ニューラルネットは機械学習で扱われる計算アルゴリズムの1つである。脳を模倣したモデルで、入力層、隠れ層、出力層の3種類の層から成る。入力に対して単純な変換を何回も繰り返し、予測結果などを出力する構造をしている。 深い構造、すなわち隠れ層を何層も重ねる構造がニューラルネットの精度向上の鍵とな

            【連載第1回】ニューラルネットの歩んだ道、ディープラーニングの登場で全てが変わった - 日経BigData
          • セキュリティエンジニアのための機械学習

            情報セキュリティのエンジニアや研究者を読者対象とした機械学習の入門書。フィッシングサイト、マルウェア検出、侵入検知システムなどの情報セキュリティ全般の課題に対して、機械学習を適用することでどのようなことが可能になるのか? 本書ではサイバーセキュリティ対策でとても重要なこれらの知識を実装レベルで身につけることができます。また、どうすれば機械学習による検出を回避できるか、という点についても同時に解説します。サンプルコードはPython 3対応。Google Colaboratory上で実際に手を動かしながら学ぶことができます。 訳者まえがき まえがき 1章 情報セキュリティエンジニアのための機械学習入門 1.1 なぜ情報セキュリティエンジニアに機械学習の知識が必要なのか 1.2 本書のコードサンプルの実行環境 1.2.1 Google Colaboratory入門 1.2.2 GPU/TPUラ

              セキュリティエンジニアのための機械学習
            • Theano で Deep Learning <6>: 制約付きボルツマンマシン <前編> - StatsFragments

              DeepLearning 0.1 Documentation の第六回は 制約付きボルツマンマシン (Restricted Boltzmann Machines / 以降 RBM) 。RBM は オートエンコーダとはまた別の事前学習法。かなり分量があるので、とりあえず元文書 前半のRBM の仕組みまで。 RBM を理解しにくいポイントは 2 つあるかなと思っていて、 この構造 (グラフィックモデル) であるメリットはあるのか? 学習 (Contrastive Divergence) で何をやってんのか? というとこではないかと。最初、自分は 2 がまったくわからなかった。2 は "とりあえずできそうな構造 / 方法でやってみたらなんかうまくいった" 感があって、理由がいまいちはっきりしないところがある。 目次 DeepLearning 0.1 について、対応する記事のリンクを記載。 第一回

                Theano で Deep Learning <6>: 制約付きボルツマンマシン <前編> - StatsFragments
              • 微分積分

                静岡理工科大学情報学部コンピュータシステム学科菅沼研究室のページです.主として,プログラミング言語( HTML,C/C++, Java, JavaScript, PHP, HTML,VB,C# ),及び,システムエンジニアとしての基礎知識(数学,オペレーションズ・リサーチやシステム工学関連の手法)を扱っています.

                • 『プログラマの数学』

                  プログラマの数学 第2版 難しい数式は使いません。 たくさんの図とパズルにやさしい解説。 プログラミングの初心者でも、数学の苦手な人でも、楽しく読めます。 プログラミングに役立つ「数学的な考え方」を身につけよう。 第2版では「機械学習への第一歩」を新たに加筆! 『プログラマの数学 第2版』目次 はじめに 第1章 ゼロの物語 ―― 「ない」ものが「ある」ことの意味 10進法 / 2進法 / 位取り記数法 / 指数法則 / 0の果たす役割 / 人間の限界と構造の発見 第2章 論理 ―― trueとfalseの2分割 どうして論理が大切なのか / 網羅的で排他的な分割 / 演算子で複雑な命題を組み立てる / ド・モルガンの法則 / カルノー図 / 未定義を含む論理 第3章 剰余 ―― 周期性とグループ分け 曜日クイズ / オセロで通信 / 恋人探し / 畳の敷き詰め / 一筆書き 第4章 数学的

                    『プログラマの数学』
                  • 高卒でもわかる機械学習 (2) 単純パーセプトロン

                    単純パーセプトロン 動物の神経細胞(ニューロン)は、樹状突起という部位で他の細胞から複数の入力を受け取り、入力が一定値以上に達すると信号を出力する(これを「発火する」と言ったりします)とされており、それをモデル化したものとして形式ニューロンというものが提案され、さらに応用してパーセプトロンというモデルが発明されました。1 と、難しそうなことを書きましたが、ざっくり絵にするとこんな感じです。 絵では入力が3つになっていますが、実際にはいくつでも構いません。 前回の の問題は、このモデルにあてはめることができます。 入力ノードが 、入力途中の矢印が に対応しています。 を入力として受け取り、それぞれに を掛けた後、中心のノードですべて足し合わせます。 この値を とします。 前回のSPAMの例だと、正しく学習された後であれば、SPAMの場合 、非SPAMの場合 となるはずですね。 このようなモデ

                      高卒でもわかる機械学習 (2) 単純パーセプトロン
                    • 直感 Deep Learning

                      直感的かつ短いコードでアイデアを形にできるKerasはTensorFlowのラッパーとして大人気のライブラリです。本書でもTensorFlowをバックエンドとして使用し、自然言語処理、画像識別、画像生成、音声合成、テキスト生成、強化学習、AIゲームプレイなどさまざまなモデルをPythonとKerasで実装します。対象読者は、各種のディープラーニングを素早く実装したいプログラマー、データサイエンティスト。ディープラーニングを支える技術の速習にも好適です。数式はなるべく使わずにコードと図で説明します。ニューラルネットワークおよびPython 3の基本を理解している人であれば誰でも始めることができます。 目次 訳者まえがき まえがき 1章 ニューラルネットワークの基礎 1.1 パーセプトロン 1.1.1 最初のKerasのコードの例 1.2 多層パーセプトロン:最初のネットワークの例 1.2.1

                        直感 Deep Learning
                      • 高校の「情報II」でデータサイエンスがしっかり学べる!すごい!

                        高校の「情報II」でデータサイエンスがしっかり学べる!すごい! 2020-06-25-1 [Programming][Python][BookReview] データサイエンティストに俺はなる!! Python 初学者のタツヲです。 いまどきは高校の授業(情報II)でデータサイエンスをやるのですね。 文部科学省から教員用の資料が公開されてるのを知りました。 「情報II」を取った高校生がどんなことを学んでいるのかを知るために、さっそく調査です! 高等学校情報科「情報Ⅱ」教員研修用教材(本編):文部科学省 第3章がデータサイエンスの話題ですので、そこを読みました。 で、読んでみた感想ですが、内容が本格的すぎて震える。 大学のデータサイエンス演習のテキストじゃないのかよ、これ。 流し読みでは一部ついていけないところも(真面目に読む必要あり)。 高校生のうちからこの辺をマスターできれば将来安泰でしょ

                          高校の「情報II」でデータサイエンスがしっかり学べる!すごい!
                        • Deep Learningライブラリ{mxnet}のR版でConvolutional Neural Networkをサクッと試してみた(追記3件あり) - 渋谷駅前で働くデータサイエンティストのブログ

                          For non-native Japanese speakers: English version is below. ちょっと前から色々なところでちらほら名前を聞くなぁと思っていたMXnet。どうやらKagglerの間では急速に人気が高まっているようで、最近になってだいぶバグフィックスが進んだらしいというので僕もインストールしてみることにしました。 もうこれはご覧の通りで、あのXgboostも配布しているDMLCが出したものです。既にソースもドキュメントもかなり整備が進んでいて、ImageNetの学習済みモデルも配布されているようです。ということで、早速ちょっと触ってみようと思います。 Convolutional Neural Network (CNN)とは 言うまでもないことだとは思いますが、Convolutional Neural Network (CNN)という手法自体はDeep

                            Deep Learningライブラリ{mxnet}のR版でConvolutional Neural Networkをサクッと試してみた(追記3件あり) - 渋谷駅前で働くデータサイエンティストのブログ
                          • MLTL: Machine Learning Templete Library

                            MLTL: 機械学習テンプレートライブラリ Introduction MLTL機械学習テンプレートライブラリは,自然言語処理へ機械学習を応用する研究や,より自然言語処理に適した機械学習手法の開発を容易にするため,YANS活動の中で清水伸幸と宮尾祐介を中心として作られた C++ テンプレートライブラリです.特に,系列構造や木構造など,自然言語の構造を表現するのに適した構造に対して,様々な機械学習アルゴリズムを利用できるように設計されています. 設計の特徴として,データ構造を表すクラスと学習アルゴリズムを表すテンプレートクラスを分離し,これらの間をつなぐインタフェースを設定することで,汎用性を高めています.これにより,新たにデータ構造クラスを作成した場合に様々な学習アルゴリズムとの組み合わせを容易に試すことができ,逆に,新たな学習アルゴリズムを実装した場合には様々なデータ構造との組み合わせを試

                            • 飯箸泰宏、「AIへの基本的理解」-第50回日本医学教育学プレコングレス--感性的研究生活(107) - 鐘の声 ブログ

                              2018/08/05 飯箸泰宏、「AIへの基本的理解」-第50回日本医学教育学プレコングレス--感性的研究生活(107) ミニシリーズ「第50回日本医学教育学プレコングレス」 ------------------------- 1. 概況、人工知能の発達に対応する医学教育-第50回日本医学教育学プレコングレス 2. 飯箸泰宏、「AIへの基本的理解」-第50回日本医学教育学プレコングレス 3. 補足資料1(代表的なAIシステム)、「AIへの基本的理解」-第50回日本医学教育学プレコングレス 4. 補足資料2(これからのAIシステム)、「AIへの基本的理解」-第50回日本医学教育学プレコングレス 5. 補足資料3(これからの医学教育など)、「AIへの基本的理解」-第50回日本医学教育学プレコングレス 6. 事前討議①(AI診断は始まっている)-第50回日本医学教育学プレコングレス 7. 事前討

                                飯箸泰宏、「AIへの基本的理解」-第50回日本医学教育学プレコングレス--感性的研究生活(107) - 鐘の声 ブログ
                              • 【書評】「仕事ではじめる機械学習」を読んで、機械学習プロジェクトの大変さを知った夏 | DevelopersIO

                                どうも。DI部@大阪オフィスの玉井です。 仕事ではじめる機械学習という本を読んだので、久しぶりに書籍エントリを投下します。この本はとってもとってもとってもとってもとってもとっても大スキよ ダーリン I like you. ダーリン素晴らしいので、ぜひこの気持ちをみなさんに伝えたいと思いました。 この本を読もうと思った理由 今後、機械学習を扱う製品やサービスが増えてくるのではないか、と思ったから 現在、私は製品サポートエンジニアとして、データ分析に関係する製品やサービス(Tableauとか)のサポートや導入を行っています。機械学習は触れたことは一切ありません。また(少なくとも現時点では)機械学習エンジニアに転向する予定もありません。 ところで、データ分析関係の製品やサービスっていうのは、それはもうすごい勢いで色々なものがリリースされています。弊社ではTableauやAlteryxといった製品

                                  【書評】「仕事ではじめる機械学習」を読んで、機械学習プロジェクトの大変さを知った夏 | DevelopersIO
                                • Support Vector Machine

                                  人間には卓越した学習能力が備わっている.人間は目で見たり,耳で聞いたものが何であるかをいとも簡単に認識できる.また,未知の環境に適応する能力も優れている.それに対し,コンピュータは,与えられた指示(プログラム)どおりに高速に計算を行う能力においては優れているが,学習能力という点においては,人間とは比較にならない. そこで,人間のような学習能力をもった機械(モデル)を作るための学習理論が発達してきた.その代表的な成果の1つとして,多層パーセプトロンが挙げられる.多層パーセプトロンは1980年代に開発され,これまで多方面に応用されてきた.しかし,望ましくない局所最適解への収束,中間層の素子数の選択など,いくつかの問題点がある. サポートベクターマシン(Support Vector Machine:SVM) は,このような問題を解決した学習機械として知られている.サポートベクターマシンとは,1

                                  • 機械学習超入門III 〜機械学習の基礎、パーセプトロンを30分で作って学ぶ〜 - EchizenBlog-Zwei

                                    機械学習には大きく分けて「識別関数」「識別モデル」「生成モデル」の3つの種類がある。このなかで識別関数は確率を使わないので初心者が入門するのに最適。 識別関数で有名なのはSVM(Support Vector Machine、サポートベクターマシン)。名前を聞いたことがある人も多いと思う。そこで早速SVMを学ぼうとすると敷居が高くて挫折しがち。 実はSVMは(大雑把に言うと)パーセプトロンという基礎的な識別関数に「マージン最大化」と「カーネル関数」という考え方を導入したもの。なので機械学習入門者は最初にパーセプトロンを学ぶのが良いと思われる。 そこで早速パーセプトロンを作ってみよう!というのが本記事の意図するところ。自分で実装できるとモチベーションが維持しやすいので、詳しく理論を学ぶ前にまずは作ってみようという考え。ちなみに実装にはperlを用いた。 参考: これからはじめる人のための機械学

                                      機械学習超入門III 〜機械学習の基礎、パーセプトロンを30分で作って学ぶ〜 - EchizenBlog-Zwei
                                    • 生成AI以後

                                      生成AI以後 2023.09.21 Updated by Ryo Shimizu on September 21, 2023, 10:05 am JST 生成AIが「民主化」されたと言えるのは、昨年8月24日のStableDiffusionの公開を起点として良いだろう。 StableDiffusionは破格の性能のAIを、誰でも買える程度のコンピューティングパワーのコンピュータで、自由に改造して使うことができると言う意味で、真の民主化を達成した。 それから一年が経過して、昨年末にはChatGPTが注目を集め、現在では単に「AI」と言えば生成AIを指すようになった。 生成AIであるかそうでないかの違いは、その構造というよりも扱う情報量の違いでしかない。 AIが扱うデータは全て行列の集合の集合(またはその集合)、これをテンソルと呼ぶが、あるテンソルを入力したときに別のテンソルに変換するというも

                                        生成AI以後
                                      • 双対分解による構造学習 - Preferred Networks Research & Development

                                        入力\(x\)から出力\(y\)への関数を学習する機械学習の中で、出力が構造を有している問題は構造学習(Structured Output Learning)と呼ばれ、自然言語処理をはじめ、検索のランキング学習、画像解析、行動分析など多くの分野でみられます。 今回はその中でも複数の構造情報を組み合わせても効率的に学習・推論ができる双対分解による構造学習について紹介をします。 # 構造学習についてよく知っているという方は双対分解による構造学習のところまで読み飛ばしてください。 構造学習の導入 構造を有した出力の例として、 ラベル列 (品詞、形態素列の推定、時系列におけるアクションの推定、センサ列) 木    (係り受け解析における係り受け木、構文解析木、談話分析、因果分析) グラフ  (DAG:述語項構造による意味解析 二部グラフマッチング:機械翻訳の単語対応) 順位付集合(検索における順位

                                          双対分解による構造学習 - Preferred Networks Research & Development
                                        • 天気予報から機械学習、金融工学まで - DO++

                                          もう随分経ちますが,先日CompView秋の学校というのに行き,2泊3日みっちり機会学習を勉強してきました.講師陣は豪華でどの話も面白かったのですが特にElad Hazanによる"Prediction in the dark: the multi-armed bandit problem"が非常に面白かったです. その話を説明するために,まず簡単ながら驚くべき性能を達成するアルゴリズムを紹介しましょう. 解きたい問題は,毎日,次の日の天気が晴れか雨かを予想する問題です.t日目が晴れの場合 y(t)=1, 雨の場合 y(t)=0と表すことにしましょう.t日目にy(t+1)を予想するわけです. さて、自分は天気の専門家ではないので,自分で予報せずに,専門家に頼ることにしてみます.M人の天気予報士がいて,それぞれが独自に次の日の天気を予想しています.i人目の天気予報士のt日目の予報をp(i,t)

                                            天気予報から機械学習、金融工学まで - DO++
                                          • 深層学習VS決定木:テーブルデータ分析の未来|PKSHA Delta

                                            深層学習の技術が著しく進歩した結果、コンピュータビジョンや自然言語処理、音声信号処理などの分野では深層学習モデルの性能が古典的な手法のを大きく上回っており、すでにスタンダードなアプローチになっています。 しかし、テーブルデータを扱うタスクにおいては、深層学習の有効性は明らかになっていません。本記事では、AI Solution 事業部のアルゴリズムエンジニアよりテーブルデータにおける従来手法と深層学習の比較論文のご紹介をしていきます。 背景近年、テーブルデータを扱う深層学習モデルも登場し、一部の論文では決定木ベースのモデルと同等かそれ以上の性能を示しています。しかし、私が実務で試す中では決定木ベースのモデルの方が性能が高く、学習と推論が速く運用コストでも優れているため、深層学習モデル採用には至っていません。 より一般的なテーブルデータのタスクにおける、決定木ベースモデルと深層学習モデルとの性

                                              深層学習VS決定木:テーブルデータ分析の未来|PKSHA Delta
                                            • 機械学習の分類の話を損失関数と決定境界を中心に整理してみた - once upon a time,

                                              機械学習の分類の話を、主に決定境界と損失関数の観点から整理してみました。 とはいっても、k-NNとか損失関数関係ないのもいます。 最初ははてなブログに書こうとしたのですが、数式を埋め込むのが辛かったのでjupyter notebookにしました。 github.com [追記] githubだと日本語を含む数式のレンダーが壊れるので、nbviewerの方がいいかもしれません。 https://nbviewer.jupyter.org/github/chezou/notebooks/blob/master/classification.ipynb [/追記] パーセプトロンが見直されたのはなんでだっけ、SVMってどういう位置づけだっけ、というのを確認できればなぁと思っています。 多層パーセプトロンまでに至るところの流れがうまく伝わればなぁと思っています。 間違いなどがあれば、是非ご指摘いただ

                                                機械学習の分類の話を損失関数と決定境界を中心に整理してみた - once upon a time,
                                              • ゼロから作るDeepLearning -Pythonで学ぶディープラーニングの理論と実装-を読んだメモ ~パーセプトロン編~ - Qiita

                                                ゼロから作るDeepLearning -Pythonで学ぶディープラーニングの理論と実装-を読んだメモ ~パーセプトロン編~機械学習数学ディープラーニング 概要 最近のもっぱらの興味はディープラーニングです。 ディープラーニング自体の基礎から学習しようと、本記事のタイトルの本を手に取って学習を始めたのでそこで得た知識の備忘録です。 (書籍はこちら↓) ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装 なお、本記事はこの本を読んで得た知識を備忘録としてまとめたものになります。 さらに、色々メモを取るには(自分の中で)新しい概念が多く、とても長い内容になってしまうのでまずは「パーセプトロン編」ということで、ニューラルネットワーク・ディープラーニングの元となっている考え方についてフォーカスを当てて記事を書いていきます。 そして当然ですが、多分に自分の理解

                                                  ゼロから作るDeepLearning -Pythonで学ぶディープラーニングの理論と実装-を読んだメモ ~パーセプトロン編~ - Qiita
                                                • 人の時間を奪わないコミュニケーションを目指すべき 情報過多時代のビジネスをアップデートする方法

                                                  「メール」はまだ必要か? 藤井創氏(以下、藤井):3つ目は「メールは必要でしょうか」という話です。メールの1番の問題点は、迷惑メールがいかに多いかというところだと思います。迷惑メールに本当のメールが隠れてしまいますよということと、あとは返事をすることにタイムラグが発生します。メールを受け取って、ハイッて返事をすることが速い人は速いかもしれませんが、メッセンジャーなどを使うよりはぜんぜん遅い。 最初の「お世話になります。なんとかなんとかです」という文章を必ず入れないといけなくて、最後に「よろしくお願いいたします」という文章まで入れていかなければいけないというところが面倒くさいですよね。ここは日本的だなと思いますが。 あと、私が一番引っかかっているのは、「メールじゃないと法的効果がないよ、効力がないよ」とよく言われていて、「メッセンジャーでこのようにやりましょう」と言っても、それは法的にダメだ

                                                    人の時間を奪わないコミュニケーションを目指すべき 情報過多時代のビジネスをアップデートする方法
                                                  • GitHub - yoyoyo-yo/DeepLearningMugenKnock: でぃーぷらーにんぐを無限にやってディープラーニングでDeepLearningするための実装CheatSheet

                                                    2020.5.3 Sun [pytorch] CycleGANを追加 2020.4.3 Fri [tf.keras] pix2pixを追加 2020.3.27 Thu [tf.keras] Style Transferを追加 2020.2.25 Tue [Pytorch] WGAN-GPを修正 2020.1.1 [Pytorch] EfficientNetB1~B7を追加 2019.12.30 [Pytorch] EfficientNetB0を追加 2019.12.23 Chainerのサポートが終了したらしいので、PytorchとTensorflowに絞っていきます 2019.12.23 [Pytorch] 可視化 Grad-CAMを追加 2019.11.23 [Pytorch] 言語処理・会話生成のHREDを追加 2019.11.19 [Pytorch] 画像生成のWGAN-GPを追加

                                                      GitHub - yoyoyo-yo/DeepLearningMugenKnock: でぃーぷらーにんぐを無限にやってディープラーニングでDeepLearningするための実装CheatSheet
                                                    • ニューラルネットワークと深層学習(和訳) - Qiita

                                                      とりあえず読んでみたい、という方は:「ニューラルネットワークと深層学習」日本語訳のページをご覧ください。 Deep Learningってのがマジヤバイらしい・・・でも、取っかかりがつかめない・・・ ここ最近、Deep Learningの盛り上がりが凄いですね。私の中でも、深層学習を覚えなきゃ、置いてかれてしまい、ついには自分の仕事までAIに奪われるのでは、という危機感と、逆に今Deep Learningを使えるようになれば未来の発明者になれるのでは、という期待感が高まり、Deep Learningを勉強しなくては、と思い続けていました。 しかしながら、私はDeep Learningがどうしても理解できませんでした。これまで何十種類ものDeep Learningの教材を試してきました。しかし、Deep Learningがどうしても理解できませんでした。しかし、世の中にある文書で、なかなかとっ

                                                        ニューラルネットワークと深層学習(和訳) - Qiita
                                                      • 「深層学習と自然言語処理」オックスフォード大/DeepMind 講義まとめ(用語集付き)

                                                        オックスフォード大の「深層学習と自然言語処理」(Oxford Deep NLP 2017 course)の講義メモです。 講義ビデオ、スライド、講義の詳細等については、講義の公式ページを参照してください。 目次 講義1a: 導入 (Phil Blunsom) 講義1b: 深層ニューラルネットは友だち (Wang Ling) 講義2a: 単語レベルの意味 (Ed Grefenstette) 講義2b: 実習の概要 (Chris Dyer) 講義3: 言語モデルとRNN パート1 (Phil Blunsom) 講義4: 言語モデルとRNN パート2 (Phil Blunsom) 講義5: テキスト分類 (Karl Moritz Hermann) 講義6: Nvidia の GPU を使った深層学習 (eremy Appleyard) 講義7: 条件付き言語モデリング (Chris Dyer)

                                                          「深層学習と自然言語処理」オックスフォード大/DeepMind 講義まとめ(用語集付き)
                                                        • 機械学習の歴史 - AI.doll

                                                          WikipediaのTimeline of machine learningというページに機械学習の歴史がまとめられた表があったので、あとから見返しやすいように全て日本語にしてみた。 日本語訳はガバガバかもしれないので心配な人は元ページを見てね。 ムムッってとこがあったらコメントで教えてほしい 年表 1763 ベイズの定理のベース トマス・ベイズ(Thomas Bayes)の著書, "An Essay towards solving a Problem in Doctorine of Chances"がベイズが死んだ2年後, 彼の友人により修正・編集され出版された. 1805 最小二乗 アドリアン=マリ・ルジャンドル(Adrien-Marie Legendre)が最小二乗(méthode des moindres carrés)について記述. 1812 ベイズの定理 ピエール=シモン・ラプ

                                                            機械学習の歴史 - AI.doll
                                                          • 統計的機械学習入門 | 中川研究室

                                                            教科書は東京大学 工学教程 情報工学の「機械学習」です。現在は試作版を使っていますが、来年度までには市販版を刊行する予定です。 導入pdf 情報の変換過程のモデル化 ベイズ統計と例題(機械翻訳など) 教師あり学習と教師なし学習 識別モデルと生成モデル 最尤推定、MAP推定 データの性質と表現 Bayes推論pdf Bayesによる確率分布推定の考え方 多項分布、ディリクレ分布 事前分布としてのディリクレ分布の意味 1次元正規分布と事後分布 多次元正規分布 条件付き正規分布 指数型分布族 自然共役事前分布の最尤推定 線形回帰および識別pdf 線形回帰のモデル 正則化項の導入 L2正則化 L1正則化 正則化項のBayes的解釈 線形識別 2乗誤差最小化の線形識別の問題点 生成モデルを利用した識別 学習データと予測性能pdf 過学習 損失関数と Bias,Variance, Noise K-Ne

                                                            • 2008-07-01 - きしだのはてな - バックプロパゲーションでニューラルネットの学習

                                                              ニューラルネットというのは、入力があって、複数の階層を経て出力を得るようなグラフ構造のことです。通常は、入力層・中間層・出力層のように層構造になっているようなものを差します。中でも、中間層が1層の、3層構造になっているものが多くとりあげられます。バックプロパゲーションは、誤差逆伝播法とも言って、ニューラルネットワークのパラメータを学習するための手法です。 ニューラルネットについてのサイトや本では、中間層を多層に対応した一般的な表現で説明されることが多いのですが、なかなか式を読み解くのが難しかったりするので、今回は3層で入力が2パラメータ、出力は1つ、中間層のニューロンは2つという、単純なものを取り上げます。 では、3層ニューラルネットワークでの判定時のデータの流れを見てみます。 3層ということになっていますが、実際の処理は2層になっています。実装するときには2層だと考えたほうがわかりやすい

                                                                2008-07-01 - きしだのはてな - バックプロパゲーションでニューラルネットの学習
                                                              • ニューラルネットワークと深層学習

                                                                ニューラルネットワークと深層学習 What this book is about On the exercises and problems ニューラルネットワークを用いた手書き文字認識 逆伝播の仕組み ニューラルネットワークの学習の改善 ニューラルネットワークが任意の関数を表現できることの視覚的証明 ニューラルネットワークを訓練するのはなぜ難しいのか 深層学習 Appendix: 知性のある シンプルな アルゴリズムはあるか? Acknowledgements Frequently Asked Questions Sponsors Resources 大抵の人にとってはごく簡単に504192と読めると思います。でも、脳の中で起 こっていることは簡単どころではありません。脳のふたつの半球にはそれぞれ、 一次視覚野---V1とも呼ばれる、一億四千万のニューロンと何十億ものシナ プスからなる領

                                                                  ニューラルネットワークと深層学習
                                                                • 自動文章生成AI(LSTM)に架空の歴史を作成させた方法とアルゴリズム

                                                                  ※サンプル・コード掲載 1.AIに文章を作らせる方法概要 架空の名前から架空の人物の歴史概要を作成させてみました。 やり方としては、wikipediaの人物の概要の部分を抜き出してRNNにトレーニングさせます。 そのトレーニングさせたモデルに対して名前を入力すると、その人物の概要を出力してくれるようにします。 RNNとは、Recurrent Neural Networksの略で、時系列の情報を学習させるためのニューラルネットワークのモデルのことです。 文章を生成させるようなモデルの場合、多層パーセプトロンのようなモデルだと出力の長さが一定になってしまい、うまく作ることができません。 そこでRNNを使い、入力が単語(文字)、出力が次の単語(文字)として学習させると、そのモデルに次々と出力された単語を入力させることによって文章が生成出来るようになります。 そして、RNNは内部の重みを入力によっ

                                                                    自動文章生成AI(LSTM)に架空の歴史を作成させた方法とアルゴリズム
                                                                  • Python 科学技術関連のパッケージ一覧 | トライフィールズ

                                                                    PyPIで公開されているパッケージのうち、科学技術関連のパッケージの一覧をご紹介します。 具体的には、次のフィルターによりパッケージを抽出しました。 Intended Audience :: Science/Research Topic :: Scientific/Engineering 英語での説明文をgoogle翻訳を使用させていただき機械的に翻訳したものを追加しております。 パッケージを探す参考にしていただければ幸いです。 パッケージ確認日:2024/06/01 パッケージ数:7085 a2pm(1.2.0) Adaptative Perturbation Pattern Method 適応的摂動パターン法 aaanalysis(0.1.5) Python framework for interpretable protein prediction 解釈可能なタンパク質予測のためのP

                                                                    • 機械学習モデルを推定する方法 : 研究開発

                                                                      「White-box」とは、訓練されたモデルをローカルでダウンロードして使用すること 「Monetize」とは、ユーザーがモデルへのブラックボックスアクセスを他のユーザーに課金すること 4 Extraction with Confidence Values まず信頼性の値を返す予測APIに注目した抽出攻撃方法 ここでは logistic regressions (LR), neural networks, and decision trees を、対象としている。 4.1 Equation-Solving Attacks 多くの機械学習モデルは、入力xと実数値モデルパラメータの連続関数としてクラス確率を計算している この場合、このクラス確率を示すAPIは、未知モデルパラメータの方程式として見ることができる サンプル (x, f(x)) を敵に提供する事になる 4.1.1 Binary lo

                                                                        機械学習モデルを推定する方法 : 研究開発
                                                                      • [モデル作成編]0から本当に機械学習を理解するために学ぶべきこと~0からscikit-learnを使いこなす~ - Qiita

                                                                        [kaggle]0から本当に機械学習を理解するために学ぶべきこと~一流のデータサイエンティストを例に~ [データラングリング編]0から本当に機械学習を理解するために学ぶべきこと~一流のデータサイエンティストを例に~ 前回までのあらすじ 上記の記事では、タイタニック号の水難事故である人が生き残るかどうかを正確に判別できるような機械学習モデルを作るべく、訓練データの傾向や歴史的な事実を用いて仮説を立て、それに基づいて特徴量の作成など、様々な操作を行ってきました。ここからはいよいよ実際にscikit-learnを使って機械学習モデルの作成に入ります。 モデルを作って予測する ついに長きに渡った前処理を終えて、結果を予測させることができるようになりました。ここでは、その使いやすさで絶大な人気を誇る機械学習ライブラリのscikit-learnを使うことになります。 この段階では、どんなアルゴリズムを

                                                                          [モデル作成編]0から本当に機械学習を理解するために学ぶべきこと~0からscikit-learnを使いこなす~ - Qiita
                                                                        • 『BrandSafe はてな』のアドベリフィケーションのしくみ

                                                                          2014-12-16 勉強会発表資料 http://eventdots.jp/event/263388Read less

                                                                            『BrandSafe はてな』のアドベリフィケーションのしくみ
                                                                          • Confidence Weighted Linear Classificationを読んだ - 射撃しつつ前転 改

                                                                            ICML2008で発表されたDredzeらのConfidence Weighted Linear Classificationを読んだ。これは線形分類器を学習する新しいオンライン学習型アルゴリズムの提案である。すぐに使える実装としてはOLLというオープンソースのライブラリがあり、実際に良い実験結果が出ているようだ。 Confidence Weightedのアイデアは、よく出てくる素性に関しては一回の更新における数値の変更量を減らしてやり、あまり出てこない素性に関しては、一回の更新でぐっと値を変更してやろう、というものである。 こういった新しい更新方法を考案した動機を明らかにするために、Perceptronを使って、単語を素性として評判分類の学習を行うような問題を考えてみる。肯定的な評価のサンプルとして"I liked this author."というものがあったとすると、このサンプルの分類

                                                                              Confidence Weighted Linear Classificationを読んだ - 射撃しつつ前転 改
                                                                            • 機械学習と情報セキュリティ2016 - ももいろテクノロジー

                                                                              この記事は「情報セキュリティ系論文紹介 Advent Calendar 2016」14日目の記事です。 近年、ディープラーニングと呼ばれる機械学習手法の進展もあいまって、ディープラーニングではない機械学習もそこそこの注目を集めている。 ここでは、2016年に公表された機械学習系の情報セキュリティ論文について、気になったものをまとめてみる。 discovRE: Efficient Cross-Architecture Identification of Bugs in Binary Code (NDSS 2016) Paper 命令数等の複数の数値指標を用いてk-Nearest Neighborによるフィルタリングを行った後、Maximum common subgraph(MCS)によるControl Flow Graphの類似度比較を行うことで、バイナリ(ファームウェア)から既知の脆弱性を

                                                                                機械学習と情報セキュリティ2016 - ももいろテクノロジー
                                                                              • [MLAC 2013 7日目] Torch7でお手軽ニューラルネットワーク - a lonely miner

                                                                                はじめに この記事は Machine Learning Advent Calendar 2013 の 7日目の記事です. 2013年,Deep Learning もアカデミックレベルではさまざまな分野への浸透が進み,バズワードの域を脱したように思えます. これまでは,機械学習というと,応用分野においては(分類/回帰といった)タスクを決めてしまった上でブラックボックスとして 扱うもの,という空気がありましたが, Deep Learning に代表される柔軟な,いかようにも組み上げられるモデルは,問題の性質を積極的に(特徴量としてではなく,モデル自体に)組み込むことを容易にする,大きな武器になるのではないかと感じています. 素性エンジニアリング vs モデルパラメータエンジニアリング の不毛な戦いが幕を上げた,という見方もできちゃいそうですが・・・.. さて今回は, Torch7 という,Ne

                                                                                  [MLAC 2013 7日目] Torch7でお手軽ニューラルネットワーク - a lonely miner
                                                                                • 人工知能やディープラーニングの理解に欠かせないパーセプトロンとは何か? - Qiita

                                                                                  この記事はAizu Advent Calendar 2016 8日目の記事です。 前の人は@0xShoneさん、次の人は@masapontoさんです。 パーセプトロンとは、1957年、ローゼンブラットというアメリカの研究者によって考案されたアルゴリズムのことですが、人工知能や機械学習、ディープラーニングなどのアルゴリズムの礎になっており、それらを理解する上では必須知識です。 そんなパーセプトロンを分かりやすく解説していきます。 パーセプトロンとは? パーセプトロンは、複数の入力に対して1つ出力する関数です。 出力は$1$か$0$の2値です。 それぞれの$x_1$,$x_2$は入力信号、$y$は出力信号、$w_1$,$w_2$は重みを表します。図の◯はニューロンと呼びます。 入力信号$x$に重み$w$が乗算され、その総和が一定のしきい値を超えたら$1$を出力します。それ以外は$0$を出力しま

                                                                                    人工知能やディープラーニングの理解に欠かせないパーセプトロンとは何か? - Qiita