「映像も物理も、微分可能になるとすごいことが起きる」ということの意味を文系にもわかるように説明しようと試みる 2021.07.26 Updated by Ryo Shimizu on July 26, 2021, 07:12 am JST 最近のプログラミングの新しい波は微分可能プログラミング(differentiable programming)である。 微分可能プログラミングとは、簡単に言うと・・・と思ったが、簡単に言うのは結構難しい。 まず「微分」という言葉があまり簡単ではない印象がある。 まずは微分と積分の関係性を説明しておこう。文系の読者に向けた記事であるので、非常にざっくりと説明してみよう(そのかわり、元々数学が得意な読者にとっては直感的ではない説明になるかもしれない)。 まず、瓶からコップにジュースを移すような状況を想定してみる。 瓶からコップが一杯になるまで60秒で注ぐとし
2016年10月に未経験・新人データサイエンティストで雇ってもらいました。当時はまだ業界が牧歌的だったのと、比較的書類上のスペックが高い若者だったのもあり、運良く拾ってもらえたのでした。今だと100%受かってないです。 そんな私が今までで読んだ本の中で、役に立った本をつらつら書いていきます。 現代の若者がどんどん優秀になっているので、これくらいでいまんとこいっぱしのデータサイエンティスト(@ビジネスサイド)になれるんだなあという基準を述べようかと思いました。何年か後に振り返りたいですね。 もちろん、これが誰かの学習の役に立てばと思っています。 ちなみに、アフィリエイト入れてないので気にせず買っていってください。 数学無難に解析学と線形代数学を勉強しておくといいと思っています。
問1:ロジスティック回帰を行うためにデータを書き換えよ ロジスティック回帰では目的の分類クラスを1,0に変換することで、クラスを確率として扱う。 1=100%として考えることで、0~1までの数値の回帰によってクラス分類を達成する。 そのため以下のように書き換えた。 また、切片項を使用しないので、事前に得られている平均値から各データを引いておく。 sex height 問2:1から0までの値で出力するための変換関数(シグモイド関数)を書け ロジスティック回帰ではシグモイド関数によって1から0の間に値を変換する。 数式に苦手感を感じる人はexp(x)という記号が2.718のx乗だと考えてくれればいい。 関数として描画すると以下のような形になる。 問3:ロジスティック回帰の尤度関数から負の対数尤度関数までの流れを記述せよ まずロジスティック回帰ではシグモイド関数に 男の時(sex = 1)のデー
Abasyn University, Islamabad Campus Alexandria University Amirkabir University of Technology Amity University Amrita Vishwa Vidyapeetham University Anna University Anna University Regional Campus Madurai Ateneo de Naga University Australian National University Bar-Ilan University Barnard College Beijing Foresty University Birla Institute of Technology and Science, Hyderabad Birla Institute of Tech
「最短コースでわかる ディープラーニングの数学」「身近な数学」を読む GW(ゴールデンウィーク)中は日経BPさんから献本いただいた「最短コースでわかる ディープラーニングの数学」(以降ディープラーニングの数学)と、ほけきよ(id:imslotter)さんから献本いただいた「身近な数学」と数学と名のつく本2冊をじっくり読みました。 全然違う繋がりで献本いただいた両本ですが、奇しくも同じ「数学」というキーワードがタイトルにあるということで、大胆にもまとめて書評を書いてみたいと思います(笑) また、両者とも付録として、内容の理解を深めるためのPythonコードがGitHubで公開されているのですが「Google Colaboratory」(以降Google Colab)を使うことで、Python環境を構築することなく、手軽にコードを実行できることが分かったので、その活用方法も合わせて紹介しようと
作っている雑誌で、これまで何度も取り上げてきた人工知能(AI)。中でも中核と言える「ディープラーニング」を、先日、数学的にちゃんと理解できて感動した、という話である。 今更と思われた読者もいるかもしれないが、数式を追って結論にたどり着いたとき、思わず「おお、分かった!」と声を上げてしまった。基本が分かると、関連する技術も結構すらすら理解できるようになって少々驚いている。 筆者は、PC用LinuxやPCボード「Raspberry Pi(ラズパイ)」を主題とするホビー向けの雑誌を作っている。AIは既に身近な存在になり、フリーソフトで顔認識をしたり、便利なAIフレームワークを使えば数行のPythonプログラムで機械学習ができたりする。そんな記事をもう数十本は企画して、執筆してもらってきた。 しかし、機械学習やディープラーニングの仕組みを自分で理解していたかというと、「何となくは」としか言えなかっ
DeepLearningは最近ブームであり,その有名なライブラリとしてTensorflowがあります. この記事ではDeepLearningの基本的な部分を数式を使って書き下すこととTensorflowの使い方を紹介します. 今更っていう気もしますが…,そこは気にしないでおくことにします 主な対象はベクトル空間やテンソル積等をある程度知っているけれど,DeepLearningは知らない人です. なので表記も大学の数学でよく出てくるものしています. なおニューラルネットワークの積分表現には触れません. 三層パーセプトロン ニューラルネットワークの基本的な形の一つである三層パーセプトロンを定義します. 定義 (三層パーセプトロン) 行列$W_1 \in M_{n_0 n_1}(\mathbb{R}),W_2 \in M_{n_1 n_2}(\mathbb{R})$とベクトル$b_1 \in \
During Jeremy Howard’s excellent deep learning course I realized I was a little rusty on the prerequisites and my fuzziness was impacting my ability to understand concepts like backpropagation. I decided to put together a few wiki pages on these topics to improve my understanding. Here is a very basic intro to some of the more common linear algebra operations used in deep learning. NEW: check out
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く