タグ

pythonと機械学習に関するplaceinsunsのブックマーク (4)

  • やっぱりよく分からない活性化関数とは - AI人工知能テクノロジー

    この記事ではニューラルネットワークに必要な要素の一つ、活性化関数について説明します。ただ、その前に簡単にニューラルネットワークについておさらいをしたいと思います。 ニューラルネットワークは人間の脳をモデル化したもので、一つ一つがニューロンと呼ばれる神経細胞を模したモデルの集まりから成り立っています。 ニューロンは入力層、中間層、出力層のそれぞれが存在します。 入力層のニューロンから出力された情報は中間層のニューロンへの入力となり、中間層のニューロンから出力された情報は出力層のニューロンへの入力となるように、複雑に連携しています。 こられのニューロンの数が多くなれば多くなるほど複雑な処理に対応できやすくなります。 このように複雑に連携しているニューロンですが、1つのニューロンに着目した場合は動作が非常にシンプルとなっています。 次の図は3つの入力(X1、X2、X3)から入力を受信したニューロ

  • 東京大学の松尾研究室が無料公開している「Deep Learning基礎講座演習コンテンツ」の自主学習方法 - karaage. [からあげ]

    新たな教育プログラム「DL4US」が開始しています。 2019年5月に、松尾研究室の新たなディープラーニングの無料教材「DL4US」が公開されています。「Deep Learning基礎講座演習コンテンツ」のバージョンアップ版の位置付けなので、今から学習する方はこちらに取り組んだ方が良いかと思います。 Dockerを使った環境構築方法を紹介している記事を書いたので、もし良ければ以下記事参照下さい。 Deep Learning基礎講座演習コンテンツが無料公開 以下のようなサイトが無料公開されていました。 学習に自由に使用してよいとのことです。ただ、肝心の使用方法が詳しく書いてないので、初心者には環境構築が厳しく、簡単に環境構築できる人にとっては、知っている内容のところが多い気がして、内容が良いだけにもったいなと感じました。 そこで、ちょっと初心者向けに環境構築の補足をしてみたいと思います。 そ

    東京大学の松尾研究室が無料公開している「Deep Learning基礎講座演習コンテンツ」の自主学習方法 - karaage. [からあげ]
  • pythonを使った回帰分析の概念の解説 その2 - Qiita

    αとβの値を探る グラフでイメージをつかむ この記事のその1では、$\alpha$と$\beta$それぞれをなんらかの値で固定した場合に最小値を見つけられることをみてきましたが、実際にこのデータに対して近似直線(回帰直線)のパラメーター$\alpha, \beta$を求めるには、$\alpha$と$\beta$が同時に最小値をとる場合を探さなくてはなりません。 その1で扱った関数$S$を、$\alpha$と$\beta$の2変数関数と見立てて整理すると下記のようになります。 S(\alpha, \beta) = \left( \sum_i^n x_i^2 \right) \alpha^2 + n\beta^2 + 2 \left( \sum_i^n x_i \right)\alpha \beta - 2 \left( \sum_i^n x_i y_i \right)\alpha - 2 \

    pythonを使った回帰分析の概念の解説 その2 - Qiita
  • Pythonを使った回帰分析の概念の解説 その1 - Qiita

    最近、機械学習人工知能等が流行っておりその基盤となる統計学についての知識が重要となっていると思います。そこで、統計学の中でもその効果がわかりやすい回帰分析の原理についてPythonで計算したりグラフを書いたりしながら概念的に理解できることを目的として説明を試みたいと思います。 統計の専門家ではないので、もしご指摘・コメントありましたらぜひご連絡ください。数学的に厳密でない点もあると思いますが、ご容赦ください... データセット まずはデータセットを入手します。 carsデータ このページではPythonを用いて説明を進めますが、使用するデータは統計解析ソフトRのなかにあるデータセットのcarsデータを用います。ここからcsvデータをダウンロードして利用してください。(ただし、このデータのDescriptionによると1920年代のデータのようなので、あくまでサンプルとしてのデータになりま

    Pythonを使った回帰分析の概念の解説 その1 - Qiita
  • 1